Jump to content



ASUS Extreme STRIKER, εμπειρίες (56K Warning)


mariosalice

Recommended Posts

Αρχική απάντηση από mariosalice

Πολύ ωραίος και μπράβο που έκανες τον κόπο και μας το έδωσες αυτό το αποτέλεσμα. :T:

Έτσι θα ξέρουμε τι να περιμένουμε σε μελλοντικές αγορές.

Δυνατό το P35 και η μητρική Abit στον υπερχρονισμό.

Σιγα τον κοπο ρε Μάριε.

Απλά περίμενα στα 3d να είσαι μπροστά.

Βέβαια εμένα είναι φρέσκα τα windows οπότε μπορεί στην φαση που είναι τα δικά σου windows να είμαι 100marks κάτω ίσως και λίγο παραπάνω.

Αν θές μπορώ να τρέξω και ότι άλλο γουστάρεις :)

  • Replies 1,7k
  • Created
  • Last Reply

Αληθεια πως μπορω να καταλαβω αν η δικη μου στρικερ ειναι καλο η κακο κομματι;;

Αμα αυτος που κλοκαρει εχει εμπειρια(ενας φιλος , οχι εγω)δεν υπαρχει ελπιδα για 400 fsb??

Ευχαριστω εκ των προτερων

Αρχική απάντηση από ΑΝ7 OverClocker [Σήμερα, στις 17:56]

Σιγα τον κοπο ρε Μάριε.

Απλά περίμενα στα 3d να είσαι μπροστά.

Βέβαια εμένα είναι φρέσκα τα windows οπότε μπορεί στην φαση που είναι τα δικά σου windows να είμαι 100marks κάτω ίσως και λίγο παραπάνω.

Αν θές μπορώ να τρέξω και ότι άλλο γουστάρεις :)

Είσαι αυτή τη στιγμή υπερχρονισμένος?

Κράτησε τα reports από το Everest αν το έχεις.

Όλο και κάτι μπορεί να χρειαστεί.

Για παράδειγμα έχεις δει διαφορά 4GB με 2GB στα ίδια?

Στην πράξη υπάρχει ορατή διαφορά στα παιχνίδια υπέρ των 4GB.

Πάντως to λινκ που μας έδωσες προυποθέτει και κόπο και χρόνο και γνώσεις.

Χοντρικά βλέπω ότι είναι ίδια τα αποτελέσματα.

Από εκεί και πέρα είναι θέμα Optimizations στο BIOS, στην κάρτα γραφικών και στα background προγράμματα.

Δεν μπορεί όλα να είναι ακριβώς ίδια.

Για παράδειγμα, όσο έτρεχα το 3DMark06, μου πέταξε μήνυμα το APC powerchute ότι αυξήθηκε πολύ η κατανάλωση και να πάω να αγοράσω πιο ισχυρό UPS. :p

Πάλι καλά που δεν μου έκανε και update το antivirus.

Αρκεί λοιπόν κατά τη γνώμη μου το τεστ που μας έδωσες για να βγάλουμε ασφαλή συμπεράσματα για την ποιότητα της abit και του p35.

Έχει και καλή τιμή.

Αρχική απάντηση από mariosalice

Είσαι αυτή τη στιγμή υπερχρονισμένος?

Κράτησε τα reports από το Everest αν το έχεις.

Όλο και κάτι μπορεί να χρειαστεί.

Για παράδειγμα έχεις δει διαφορά 4GB με 2GB στα ίδια?

Στην πράξη υπάρχει ορατή διαφορά στα παιχνίδια υπέρ των 4GB.

Πάντως to λινκ που μας έδωσες προυποθέτει και κόπο και χρόνο και γνώσεις.

Χοντρικά βλέπω ότι είναι ίδια τα αποτελέσματα.

Από εκεί και πέρα είναι θέμα Optimizations στο BIOS, στην κάρτα γραφικών και στα background προγράμματα.

Δεν μπορεί όλα να είναι ακριβώς ίδια.

Για παράδειγμα, όσο έτρεχα το 3DMark06, μου πέταξε μήνυμα το APC powerchute ότι αυξήθηκε πολύ η κατανάλωση και να πάω να αγοράσω πιο ισχυρό UPS. :p

Πάλι καλά που δεν μου έκανε και update το antivirus.

Αρκεί λοιπόν κατά τη γνώμη μου το τεστ που μας έδωσες για να βγάλουμε ασφαλή συμπεράσματα για την ποιότητα της abit και του p35.

Έχει και καλή τιμή.

Τι εννοείς αν είμαι αυτή τη στιγμή υπερχρονισμένος?

Πάντα είμαι :p

Tα 4gb τα έβαλα μόνο για να κάνουμε την σύγκριση χοντρικά.Τα 2GB ήταν απ το πισι στο σαλώνι.

Εγώ χρησημοποιώ μόνο 2GB@1075 για κάθε μέρα και τον 6850 στα 3900.

Στο Bios προσπάθησα να βάλω τα ίδια timmings στις μνήμες με σένα ώστε τα αποτελέσματα να είναι όσο πιο κοντά στην πραγματικότητα γίνεται.

Σίγουρα τα αποτελέσματα δεν μπορουν παρα να είναι μόνο ενδεικτηκά καθώς εμένα είναι φρέσκια η εγκατάσταση.Και είμαι σε raid με 2*250GB WD KS δίσκους. Στο 3dmark06 πάντως πάνω από 100 στην χειρότερη 150marks δεν θα δείς από μια φρέσκια σε μια παλιά εγκατάσταση.Εκτός και αν έχει γίνει π@π@ρια με τους drivers.πχ είχες ΑΤι και έβαλες nvidia χωρίς φορμάτ.

Εκεί μπορεί να δείς και 1κ διαφορά στο 06 από μια φρέσκια εγκατάσταση.

Αν θές μπές στο msconfig και απενεργοποίησε τα όλα απ το startup να δείς αν πόσο θα κερδίσεις.

Το abit είναι πολύ εύκολο mobo.

Αρκετά ποιο εύκολο απ το Commando που έχω.Χωρίς αυτό να σημαίνει ότι είναι καλύτερο(που είναι βέβαια λόγο p35 από άποψη επιδόσεων αλλά το commando είχε άλλες ευκολίες πέρα απ το o/c που δεν έχει το IP35,για αυτό και η διαφορά τιμής που το commando έκανε 210 και το abit 150).

Το Striker θέλει χρόνο,αφωσίοση και γνώσεις.Όσοι τις έχουν, πάει το motherboard.άσχετα απ τις επιδόσεις.

Τα 400 τα ξεπερνάνε όλα με c2d.Από κει και πέρα πρέπει να πέσεις και στο "κομμάτι" του chipset ώστε να πάει παραπάνω.

Αυτά από μένα.

Αναμείνατε στο ακουστικό σας για το report του everest :)

Memory Timings:

CAS Latency (CL) 4T

RAS To CAS Delay (tRCD) 4T

RAS Precharge (tRP) 4T

RAS Active Time (tRAS) 10T

Row Refresh Cycle Time (tRFC) 45T

RAS To RAS Delay (tRRD) 10T

Write Recovery Time (tWR) 17T

Read To Write Delay (tRTW) 8T

Write To Read Delay (tWTR) 17T

Read To Precharge Delay (tRTP) 5T

Write To Precharge Delay (tWTP) 17T

Refresh Period (tREF) 2600T

CPU Properties:

CPU Type DualCore Intel Core 2 Duo E6850

CPU Alias Conroe

CPU Stepping G0

Engineering Sample No

CPUID CPU Name Intel® Core2 Duo CPU E6850 @ 3.00GHz

CPUID Revision 000006FBh

Core Voltage 1.350 V

CPU Speed:

CPU Clock 3807.0 MHz (original: 3000 MHz, overclock: 27%)

CPU Multiplier 9.0x

CPU FSB 423.0 MHz (original: 333 MHz, overclock: 27%)

Memory Bus 423.0 MHz

DRAM:FSB Ratio 1:1

CPU Cache:

L1 Code Cache 32 KB per core

L1 Data Cache 32 KB per core

L2 Cache 4 MB (On-Die, ASC, Full-Speed)

Motherboard Properties:

Motherboard ID 08/15/2007-P35-W627DHG-6A79OA1BC-00

Motherboard Name Abit IP35 Pro (3 PCI, 1 PCI-E x1, 2 PCI-E x16, 4 DDR2 DIMM, Audio, Dual Gigabit LAN, IEEE-1394)

Chipset Properties:

Motherboard Chipset Intel Bearlake P35

Memory Timings 4-4-4-10 (CL-RCD-RP-RAS)

Graphics Processor Properties:

Video Adapter XFX GeForce 8800 GTX

GPU Code Name G80GTX (PCI Express x16 10DE / 0191, Rev A2)

GPU Clock (Geometric Domain) 575 MHz (original: 626 MHz)

GPU Clock (Shader Domain) 1350 MHz (original: 1458 MHz)

Memory Clock 900 MHz (original: 1000 MHz)

Αν θες κάτι άλλο μου λές.

Απ ότι φαίνεται τλκ τα suv\b τιμμγνσ είναι αρκετά πιο χαλαρά και ότι τλκ ήμουν με 4-4-4-10

Τι γνώμη έχετε για το VTT σε τετραπύρηνους?

Δοκιμάσατε να ξεκινήσετε από την τιμή που βάζει το auto (που είναι περίπου ίδιο με το vcore) και να κατεβάζετε σταδιακά την τάση, ελέγχοντας παράλληλα αν ανεβαίνει το FSB?

Λογικά πρέπει να αλλάζει και το gtl ref μαζί με το vtt.

Αν κάποιος ξέρει περισσότερα στο θέμα, ας μας φωτίσει.

Το mod μη νομίζετε ότι είναι εύκολη δουλειά.

Εκτός που θέλει γνώσεις και ικανότητες να γίνει, ακόμα κι αν πετύχει απόλυτα, μετά θα θέλει πολύ δουλειά για να βρεθεί και να σταθεροποιηθεί σε μια συχνότητα το fsb, παίζοντας με τριμεράκια.

Κατά τη γνώμη μου είναι χρήσιμο μόνο για extreme υπερχρονισμό.

@ ΑΝ7 OverClocker

Μήπως έχεις βρει το όριο που πάει το FSB με 4GB στην Abit?

Αρχική απάντηση από ΑΝ7 OverClocker

Ωχου ρε Lafa.

300ποστ τώρα το ίδιο πράμα λές.

Το Αβιτ είναι πολύ πιο ευκολο board απ την Striker.Για αυτό ανέβηκες πιο ευκολα.

Απλά είναι καλύτερο... ;)

Μαριε τι παζεται με το pc probe ? σαν περιεργιες ενδιξεις μου διχνει καθε τοσο. πχ για ελαχιστα sec να μου διχνει 0 ω σε SB . τωρα σε ενα φιλο μου εδιχνε σε απο 12.25 - 14.5 v? μ΄@λ@κιες του pc probe ειναι ή μπορει να εχει παιζει προβλημα σε psu?

το PcProbe είναι αν το ανοίγεις με το cpu z η το core temp η το speedfan έτσι μου κάνει και εμενα και μετά χάνει το μπούσουλα και η μητρική και λέει ότι θέλει από bios :( και μετά μονο με clear βλέπει φως

  • 1 month later...

ρε παιδια πως γινεται sli στην striker?μεσα απο το bios υπαρχει εντολη η απο το Panel της

vidia το ενεργοποιω?ποσο αποτελεσμα πρεπει να με βγαζει στο 3dmark6 με sli 8800gtx

και q6600 στοκ?

Welcome to our Club.

Φίλε def για να δουλέψει το SLI θα πρέπει να κάνεις τα εξής.

Οι κάρτες γραφικών πρέπει να είναι ίδιες.

Θα τις βάλεις να κουμπώσουν σωστά στο πρώτο και στο τρίτο PCIe slot που είναι για SLI.

Βάζεις τις τροφοδοσίες στις κάρτες (συνολικά θέλει 4).

Βάζεις το SLI link καλώδιο σε όποια από τις δύο υποδοχές θέλεις.

Η οθόνη συνδέεται στην πρώτη κάρτα.

Στο BIOS βάζεις

SLI broadcast aperture: Auto

Nvidia GPU ex Enabled.

Στα Vista ή στα XP ενεργοποιείς το SLI μέσα από το Control panel της Nvidia.

Καλές πτήσεις.

Αρχική απάντηση από mariosalice

Welcome to our Club.

Φίλε def για να δουλέψει το SLI θα πρέπει να κάνεις τα εξής.

Οι κάρτες γραφικών πρέπει να είναι ίδιες.

Θα τις βάλεις να κουμπώσουν σωστά στο πρώτο και στο τρίτο PCIe slot που είναι για SLI.

Βάζεις τις τροφοδοσίες στις κάρτες (συνολικά θέλει 4).

Βάζεις το SLI link καλώδιο σε όποια από τις δύο υποδοχές θέλεις.

Η οθόνη συνδέεται στην πρώτη κάρτα.

Στο BIOS βάζεις

SLI broadcast aperture: Auto

Nvidia GPU ex Enabled.

Στα Vista ή στα XP ενεργοποιείς το SLI μέσα από το Control panel της Nvidia.

Καλές πτήσεις.

ευχαριστω Mαριε,η μια ειναι XFX και η αλλη GIGABYTE ιδια ρολογια GTX και η δυο

Αρχική απάντηση από mariosalice [02-10-2007 06:43]

Τι γνώμη έχετε για το VTT σε τετραπύρηνους?

Δοκιμάσατε να ξεκινήσετε από την τιμή που βάζει το auto (που είναι περίπου ίδιο με το vcore) και να κατεβάζετε σταδιακά την τάση, ελέγχοντας παράλληλα αν ανεβαίνει το FSB?

Λογικά πρέπει να αλλάζει και το gtl ref μαζί με το vtt.

Αν κάποιος ξέρει περισσότερα στο θέμα, ας μας φωτίσει.

Το mod μη νομίζετε ότι είναι εύκολη δουλειά.

Εκτός που θέλει γνώσεις και ικανότητες να γίνει, ακόμα κι αν πετύχει απόλυτα, μετά θα θέλει πολύ δουλειά για να βρεθεί και να σταθεροποιηθεί σε μια συχνότητα το fsb, παίζοντας με τριμεράκια.

Κατά τη γνώμη μου είναι χρήσιμο μόνο για extreme υπερχρονισμό.

το VTT στο φουλ

και για να κλοκαρεις τον quad fsb 450 max βαζεις τις μνημες unlinked και παιζεις με την συχνοτητα tvn mnhmvn μεχρι να βγεις απο το fsb hole λογω gtlref ,με λιγα λογια πρεπει να πετυχεις τον καταληλο διαιρετη γιατι το gtlref πρεπει να ειναι τα 2/3 του VTT και αλλαζει με τον διαιρετη των μνημων.

’ρα καλά το υποπτεύθηκα ότι παίζει ρόλο το vtt, αλλά από την ανάποδη LOL.

Όσο για τη μνήμη, αυτό το έχω δει ακόμα και στους διπύρηνους.

Μόνο που νομίζω ότι κάθε περίπτωση είναι διαφορετική.

Ας πούμε ότι σε μένα παίζει καλύτερα όταν την έχω 1:1 ή 900.

Ένα τρυκ που βρήκα είναι να ελέγχω αν κάνει restore από S3 στα Vista (hybrid sleep).

Αν κάνει, τότε ξέρω ότι θα ανέβει το FSB.

Μπορεί να ανέβει το FSB στα 450 με τους G0?

Ένας λόγος που δεν παίρνω τετραπύρηνο είναι που όλοι λένε ότι δεν ανεβαίνει.

Διάβασα φήμες ότι η Intel άλλαξε την τελευταία στιγμή το microcode στον penryn QX9650, που αυτή τη στιγμή είναι διαθέσιμος.

Λέγεται μάλιστα ότι δεν θα υποστηρίζονται οι Penryn και οι επόμενοι επεξεργαστές της Intel, από τη Striker Extreme ή από άλλο υπάρχον ή μελλοντικό chipset της Nvidia.

H Intel απαιτεί από την Nvidia να της δοθεί η δυνατότητα χρήσης της τεχνολογίας SLI στα δικά της chipset, προκειμένου να δώσει το microcode τόσο των Penryn όσο και των μελλοντικών επεξεργαστών της.

Φυσικά κάτι τέτοιο θα σημάνει και το τέλος των chipset της Nvidia.

Από την άλλη όμως και η AMD είναι πλέον ανταγωνιστική προς την Nvidia, ιδίως τώρα με το spider, που θέλει τους phenom σε μητρικές με δικά της chipset και quad crossfire.

Αγρίεψαν τα πράγματα.

’σχημα λοιπόν τα νέα για τη Striker και όχι μόνο.

Αν σταματήσει η παραγωγή των Nforce, θα έχουμε να επιλέξουμε πλέον αποκλειστικά ανάμεσα σε all Intel ή all AMD (spider) με συνέπειες στην τσέπη μας και στην εξέλιξη των υπολογιστών.

Από την άλλη όμως είδα ότι οι μηχανικοί της eVGA προσπαθούν να σπάσουν τον μικροκώδικα ώστε να τον ενσωματώσουν στο BIOS στις δικές τους μητρικές με 680ι SLI.

Τα παραπάνω είναι μεν φήμες, αλλά φαίνεται ότι δεν βγήκαν τυχαία στο Internet.

τοτε να απαιτησουμε τα λ7 μας πισω ,οταν την αγορασα στο σαιτ της ασους ελεγε οτι ειναι συμβατη με 45νμ επεξεργαστες

Archived

This topic is now archived and is closed to further replies.

×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.