Morjensta! Itellä oli suunnitelmissa hankkia 2x 8800GT, mutta eri foorumeita lukiessa on alkanut mietityttää, että olisiko sittenkin yksi tehokas kortti parempi kuin vähän puhdittomammat sli:t? Jossain myös sanottiin ettei kaikki pelit tue sli:tä, kuten esim crysis. Onko tämä totta? Eli mielipiteitä sli:n puolesta ja vastaan. Onko järkevämpää ostaa sli:nä 8800GT:t vai odottaa 3.joulukuuta, jolloin julkaistaa G92:seen perustuvat 8800GTS. Kiitos!
Kyllähän se SLI tuo lisää tehoja, mutta huonommassa hyötysuhteessa. Mutta jos tahdot vain parasta eikä hinta kiinnosta, niin kaksin aina kaunihimpi. Tuohon ettei muka joku peli tukisi SLI -ominaisuutta, en osaa mitään sanoa mutten usko moiseen. Itse harkitsin kahta ATI RX2600XT passiivijäähdytteistä korttia, mutta totesin etten tarvitse niin paljon tehoa. Tehokkaimpia kortteja ei saa passiivina, joten kaksi keskiluokan näytönohjainta himotti. Wow toimii täydellisesti tuolla kortilla, josta minulla 512 MB versio.
Kiitos, kerrankin joku tajusi asiani, eikä alkanu selvitteleen minulle hintoja, joista olen tietoinen Ois kiva saada selvyyttä tohon sli tukeen peleissä ja sitten vielä muitten mielipiteitä kiitos
No wow on kyllä vähän vanhahko peli. Eli grafiikka on sen mukaista että kyllä sen pitää pyöriä. Ja onhan tuo 2X 8800GT paljon nopeampi kuin 1kpl 8800GTX:ää ja saman hintainen. Että siinä mielessä halpa ja hyvä kortti tämä on. Jos ei olisi rahasta kiinni niin kyllä voisin sanoa että ihan hyvin voit 2X 8800GT:tä ostaa. Tiedä sitten mistä niitä saa enää.
Loppuunmyytyjä, ei voi mitään. Käytettynä vois ettiä. Kyllä useimmista peleistä löytyy hyötyä SLI:lle, mutta olisiko ollut esim. CoD2, joka ei hyötynyt yhtään. Onhan niitä muitakin pelejä. Google kertoo lisää pelejä
Olet kai tietoinen, ettei tuosta lisänäyttiksestä saada irti kuin vain 30% sen kaikesta tehosta. Unohda hyvämies tuollaiset suunnitelmat!
SLI:n hyöty täysin pelikohtaista: http://www.guru3d.com/article/Videocards/468/1/ http://firingsquad.com/hardware/nvidia_geforce_8800_gt_performance/page5.asp Voihan sen >400€ huonomminkin käyttää, esim. ostamalla 8800GTX:n... Tässä tapauksessa olen melkeinpä SLI:n kannalla, jos vain rahaa löytyy
Juu kyllä vain on olemassa pelejä joissa kahdella 8800GTS:llä tai kahdella 8800GT:llä saadaan enemmän FPS:ää kuin yhdellä 8800GTX:llä. Mielestäni pitäisikin tuijottaa enemmän sijoitettua rahamäärää saatuun FPS lukemaan. 300€:a on pidetty sellaisena rajapyykkinä, jonka jälkeen jokaisesta lisä FPS:stä joutuu maksamaan kohtuuttoman paljon euroja. Esim. 8800GTX maksaa noin kaksi kertaa enemmän kuin 8800GTS, mutta GTX antaa vain noin neljänneksen enemmän suorituskykyä. Aina löytyy tietysti peli tai kaksi joissa sitä eroa on enemmän, mutta kokonaisuutta ajatellen muutaman pelin poikkeuksella ei ole mitään väliä.
Jos ajatellaan €/fps tyylillä, niin yksi näyttis on aina parempi vaihtoehto. Spekulointia: Saattaa olla niin, että tulevaisuudessa SLI- ja Crossfire- ratkaisuista saadaan tehoja irti tehokkaammin, jos pelien tekijät haluavat optimoida pelinsä tukemaan kahden näyttiksen ratkaisua paremmin. Myös rautapuolella saattaa tapahtua muutoksia; ehkä kahden kortin ratkaisuissa laskentateho saadaan jaettua tasaisemmin/paremmin kahden kortin välille (puhumattakaan 3 ja 4 kortin visioista). Onhan prosessorin kaksi (kohta neljä) ydintäkin otettu jo melko hyvin hyötykäyttöön? Ratkaisu löytyy yleensä sekä softa että rauta puolelta, joten yhteistä kehittämistä tarvittaisiin. Miksi samaa ei voitaisi tehdä myös näyttisten kohdalla---> vastaus: koska niin penellä osalla pelaajista löytyy kahden näyttiksen kokoonpano omasta koneestaan, joten houkutus optimoida pelit hyödyntämään tätä tekniikkaa on varmaankin suhteellisen pieni. Toisaalta tilannetta voidaan katsoa toiselta kantilta. Jos AMD ja Nvidia innostaisivat (rahallisesti) pelintekijöitä hyödyntämään SLI- & Crossfire- tekniikkaa paremmin, niin se näkyisi suoraan myytyjen korttien lukumäärässä. Houkutus ostaa toinen kortti, joka nostaisi FPS lukemaa vaikkapa 60-80%, olisi jo kohtuullisen suuri. Ja tarina jatkuu... Voisiha tätä visioida vaikka maanantaihin saakka, mutta "Computer says no" ja kello lähenee uhkaavasti pikku pupen nukkumaanmeno hetkeä: