Data: 2009-10-31 17:37:15 | |
Autor: qwerty | |
dekodujaca karta graficzna | |
Użytkownik "1634Racine" <1634@Racine.pl> napisał w wiadomości grup dyskusyjnych:hchis0$k25$2@inews.gazeta.pl...
na bardzo starym _pececie_ (grafika: jakas przedpotopowa nvidia [tnt...], procesor: 800 mgh, ram: ok 300 mb)) filmy typu divx prawie w ogole nie chodza. O dvd mozna pomarzyc.A przeciez tu i tam czytalem, ze divx-y to bez problemu na procesorach juz troche ponad 400 mgh.... pIII 450 MHz i cel 600@900MHz to użycie 80-90%. Wszystko zależy od systemu, kodeków i programu. Na laptopie z Core Duo + Bestplayer + XP = filmy potrafią się przycinać (użycie procesora jest znikome). Na innym programie wszystko chodzi dobrze. Nie mogę dojść dlaczego tak jest, ale to już OT. Czy powodem tego jest to, ze w pececie caloscia dekodowania musial zajac sie procesor, bo nvidia zero udzialu w dekodowaniu, natomiast w laptopie karta graficzna ati wrecz przejela dekodowanie [?], a procesor co najwyzej pomogl? Nie. Karty graficzne nie potrafią dekodować divx/xvid. Czy dzisiaj wszystkie karty graf,takze te z nizszej polki, maja juz te wlasnosc, ze [same] dekoduja obraz? Nie. Mozna to jakos poznac po lekturze specyfikacji? Można. -- Jeżeli nie potrafisz skonfigurować NOD32, aby nie wysyłał śmieci to lepiej nic nie pisz, gdyż nie jesteś obdarzony inteligencją. |
|