matteus Δημοσιεύτηκε Δεκέμβριος 30, 2012 #1 Κοινοποίηση Δημοσιεύτηκε Δεκέμβριος 30, 2012 Καλησπέρα και χρόνια πολλα!Σκέφτομαι να κάνω JBOD 8 δίσκους 3tb και έχω μερικές ερωτήσεις..1) Πρεπει να ειναι ολοι οι δισκοι να ειναι στον ιδιο Sata controller;2) Αν "χτυπήσει" ένας δίσκος χανω τα δεδομένα απο όλους τους δισκους ή μόνο απο τον δίσκο που χτύπησε και την "αρχη" και "τέλος" του χτυπημένου δίσκου (αν πχ ένα αρχείο είναι σε 2 δίσκους);3) κάνοντας jbod πχ σε 2 δισκους χανω ότι δεδομένα και απο τους 2; ή μήπως γίνεται κάτι σαν expand και Μπορώ χάσω τα δεδομένα μόνο του ενός ή και κανενός;Γενικα ποια είναι τα αρνητικά του jbod; Με ενδιαφέρει λόγω του ότι ετσι θα έχω 1 συντόμευση στα media player και μια database ταινιών πχ με τα YAMJ, xbmc, NMJ..Ευχαριστω εκ τον προτέρων. Link to comment Share on other sites More sharing options...
finik Δεκέμβριος 30, 2012 #2 Κοινοποίηση Δεκέμβριος 30, 2012 Το JBOD (όπως υλοποιείται συνήθως) είναι ουσιαστικά raid 0, οπότε αν ένας δίσκος σκάσει, χάνονται όλα. Αν γίνει με hardware controller, τότε (απ' όσο ξέρω) πρέπει να είναι όλοι στην ίδια κάρτα.Εγώ θα πρότεινα μία πιο ευελικτη λύση, όπου θα προσθέτεις δίσκο όποτε τον χρειάζεσαι, αν και απαιτεί κάποιες γνώσεις linux. Προσθέτεις τον κάθε δίσκο στο σύστημα, και χρησιμοποιώντας aufs (http://aufs.sourceforge.net/) ή UnionFS, δημιουργείς ένα mount point σε ένα κοινό directory. Στις παραμέτρους που δίνεις στο mounting μπορείς να επιλέξεις σε ποιον δίσκο θα γίνονται οι νέες εγγραφές, ενώ μπορείς να βλέπεις και τους ανεξάρτητους δίσκους, σε περίπτωση που θέλεις να έχεις καλύτερο έλεγχο στο που θα πηγαίνει το κάθε αρχείο.Με την λύση του aufs αν σκάσει ένας δίσκος, χάνεις τα δεδομένα ενός δίσκου, μπορείς να ξεκινήσεις με ένα δίσκο και να προσθέτεις καινούριο όποτε χρειάζεσαι επιπλέον χώρο, μπορείς να χρησιμοποιείς δίσκους χωρίς τον περιορισμό να είναι identical κ.λπ. Μοναδικό μειονέκτημα είναι πως δεν κερδίζεις την ταχύτητα που κερδίζεις σε περίπτωση raid0 (ή span jbod). Link to comment Share on other sites More sharing options...
auteur Δεκέμβριος 30, 2012 #3 Κοινοποίηση Δεκέμβριος 30, 2012 Το JBOD (όπως υλοποιείται συνήθως) είναι ουσιαστικά raid 0, οπότε αν ένας δίσκος σκάσει, χάνονται όλα. Αν γίνει με hardware controller, τότε (απ' όσο ξέρω) πρέπει να είναι όλοι στην ίδια κάρτα.Εγώ θα πρότεινα μία πιο ευελικτη λύση, όπου θα προσθέτεις δίσκο όποτε τον χρειάζεσαι, αν και απαιτεί κάποιες γνώσεις linux. Προσθέτεις τον κάθε δίσκο στο σύστημα, και χρησιμοποιώντας aufs (http://aufs.sourceforge.net/) ή UnionFS, δημιουργείς ένα mount point σε ένα κοινό directory. Στις παραμέτρους που δίνεις στο mounting μπορείς να επιλέξεις σε ποιον δίσκο θα γίνονται οι νέες εγγραφές, ενώ μπορείς να βλέπεις και τους ανεξάρτητους δίσκους, σε περίπτωση που θέλεις να έχεις καλύτερο έλεγχο στο που θα πηγαίνει το κάθε αρχείο.Με την λύση του aufs αν σκάσει ένας δίσκος, χάνεις τα δεδομένα ενός δίσκου, μπορείς να ξεκινήσεις με ένα δίσκο και να προσθέτεις καινούριο όποτε χρειάζεσαι επιπλέον χώρο, μπορείς να χρησιμοποιείς δίσκους χωρίς τον περιορισμό να είναι identical κ.λπ. Μοναδικό μειονέκτημα είναι πως δεν κερδίζεις την ταχύτητα που κερδίζεις σε περίπτωση raid0 (ή span jbod).Με αυτο το aufs θα μπορούμε να μοιράσουμε τα αρχεία μέσω SMB/NFS σε media player; Ξεκινώντας με 2 δίσκους σε aufs χάνεις τα δεδομένα και απο τους δυο ή μόνο απο αυτόν που προσθέτουμε ή δεν χάνουμε τίποτα;Οι ταχύτητες δεν ενδιαφέρουν αν χρησιμοποιηθεί σαν απλο storage streaming υλικού...οπότε δεν υπάρχει θέμα. Link to comment Share on other sites More sharing options...
finik Δεκέμβριος 30, 2012 #4 Κοινοποίηση Δεκέμβριος 30, 2012 Ναι, μπορείς να κάνεις share μέσω Samba χωρίς πρόβλημα. Λογικά και μέσω NFS, αν και δεν το έχω δοκιμάσει να σου πω σίγουρα. Δεδομένα δε χάνεις από κανένα δίσκο, αν είναι ήδη σε linux μηχάνημα. Αν είναι σε windows, τότε προφανώς πρέπει να αλλάξει το filesystem, οπότε θα αναγκαστείς να μεταφέρεις κάπου τα αρχεία, να κάνεις το format και να τα ξαναβάλεις στο δίσκο αυτό. Link to comment Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.