Så... Måste nu erkänna att jag har läst igenom hela tråden eftersom jag var nyfiken på alla bevis som ingen vill skriva om. För andra som tänker göra detsamma så säger jag låt bli för det är bortkastad tid! Folk vet inte vad de diskuterar inte ens trådskaparen.
Skrivet av AlbinLoan:
Tråden handlar inte om att 30fps inte är spelbart. Tråden handlar om att man kan se skillnad på mellan 100-200fps om man så vill.
Tog till andra posten innan han halkade ur topic och sen kom med fel slutsats.
Skrivet av AlbinLoan:
Möjligt men jag både ser och känner skillnad från 30fps till 50fps, eller från 100fps-160fps. Jag har provat detta ganska många gånger och ser skillnad varje gång.
Skrivet av AlbinLoan:
Jag har provat säkerligen 5-7 olika spel där jag har tvingat diverse olika Hz nivåer med V-sync på och av för att få en låg fps samt en högre och man märker ganska stor skillnad.
Bildskärm är ju en bildskärm så att påstå att ett ögan inte kan se skillnad på till exempel 70fps på en bildskärm i ett valfritt spel eller 100fps, 20fps eller 50fps är struntprat rentutsagt.
Conclusion: Myten är busted!
Nästan alla i tråden som hävdar att man ser skillnad på frame rate baserar det på datorspel, och när man lätt kan visa att effekterna av att man ser skillnaden i spel inte har nått att göra med frame rate så faller ju bevisen tämligen platt. Det är snarare så att jämna 60 fps med v-sync på upplevs bättre än oregelbunden 90 fps. Det man upplever är variationer i frame rate och de minskas ju högre fps man har.
Trådskaparen okundskap i ämnet dyker sen upp med jämna mellanrum...
Skrivet av AlbinLoan:
Eftersom V-sync är avaktiverat, alltså på OFF så renderar mitt grafikkort mellan 500-999fps konstant. Eftersom V-sync är off så är grafikkortet tvungen att rendera massvis med samma bilder eftersom min LCD inte har stöd för mer Hz än om 60. Så allt över 60FPS renderas samma bilder hela tiden bara för att det inte ska bli ett "tomt hål".
Nä, grafikkortet genererar olika bilder och skärmen visar delar av dem alla samtidigt.
Skrivet av AlbinLoan:
Alltså jag vet inte om jag är trött just nu men jag hade för mig att pixlarna på en LCD tänds och släcks fristående från varandra och finns därför ingen svepfrekvens att tala om.
Sedan detta med TV, är det inte så att en TV ritar upp samma bild två gånger?
Pixlar uppdateras en gång per refresh vilket anges med refresh rate. En bild ruta ritas delas upp och ritas under två vertikala svep på en analog interlaced TV.
Spela har även den effekten att man kopplar in andra sinnen än bara synen. Man använder händerna också och hjärnan kan uppskatta tiden från det att handen gör nått till att ögonen ser skillnad på skärmen vilket för in diskussionen på nått helt annat som inte har med tolkning av visuell frame rate att göra. Hög frame rate och avslagen v-sync minskar input lag med massor.
Skrivet av kaptenperre:
Vissa saker antar jag helt enkelt att folk i allmänhet ska förstå. Ska fötydliga ytterligare.
Om man får se en bild efter 2/60s så tar det längre tid att reagera än om man får se den efter 1/60s. Blir 1/60s tidsskillnad i reaktionen om man utgår från tid 0. Detta såg jag som självklart, men tydligen var det inte så.
SÅ slutsatsen är alltså att högre FPS än skärmens maximala hz ger en effekt som t.ex. vis spelande är snabbare reaktioner på saker som händer där.
Sen innehåler tråden massa diskussion angånde V-sync där majoriteten inte verkar veta hur det egentligen fungerar och hur bilder genereras vare sig med eller utan v-sync. Borde bara vara å läsa vilken artikel som helst i ämnet som ligger på internet för att ta reda på det. Finns många att välja på.
Ett argumentat är att man ser skillnad på 60 Hz och 100 Hz på en CRT. Ja, det gör man även på stillbilder så det har inget med frame rate att göra utan beror på flimret som en CRT generear.
Ytterligare en stor missuppfattning verkar vara att LCD-paneler uppdaterar hela bilden sammtidigt när den i princip fungerar som en CRT och uppdaterar rad för rad.
Men som kan ses så har varken v-sync, CRT frekvens eller LCD-paneler med frame rate diskussionen att göra.
Nästa fel har att göra med att man kan inte spela upp en frame rate i nått annat än hela multipler av inspelad frekvens. Gör man så måste vissa indviduella bildrutor visas längre än andra och ögat är mycket bra på att detektera sådana skillnader. Här är ett exempel på ett sånt "bevis".
24 fps kommer alltid att spelas upp hackigt i 60 Hz. Det är därför man behöver en 120 Hz TV för att kunna spela upp Blueray utan hack (24*5 = 120) för på en 60 Hz så måste man använda 2:3 pulldown.
Andra typer av "bevis" som dyker upp har inte heller nån slags relevans i frågan.
Skrivet av KingCobra:
... och bland annat jag har presenterat forskningsresultat osv på hur e pilot som sett på 200 bilder i sekunden, föreställandes en himmel, kunde urskilja ett flygplan, modell på flygplanet, och nummret på sidan.
Flygplanets bild var inlagd bland de andra 199 bilderna i frekvensen, och var på samma himmel som de andra bilderna visade.
199 bilder på en tom himmel, 1 bild på planet i sekunden.
Han hade inga större svårigheter med detta.
Så, snälla, ta nu åt er en gång för alla och döda 30 talsmyten.
Det här har bara med reaktionen av en enskild impuls, inget med frame rate att göra. För att ens kunna göra detta det minsta relevant till diskussionen så skulle piloten vara tvungen att kunna skilja på om man visade upp en eller två bilder i följd av flygplanet i sekvensen.
En av de få som bidrar med något vettigt är Knashatt.
Skrivet av Knashatt:
Här måste jag förklara hur det fungerar så du förstår.
Om du tittar på ett hjul med ekrar som snurrar runt väldigt snabbt kommer du inte se ekrarna, du kommer bara se ett "suddigt" fält där ekrarna är.
Detta gäller när du håller ögat still på en viss punkt vid hjulet.
Om du då snabbt flyttar ögat och tittar på en annan punkt på hjulet kommer du plötsligt se en liten "stillbild" av ekrarna.
Detta fungerar till en viss gräns på hastigheten, går det för snabbt kommer du inte se detta fenomen.
Testa gärna själv, ta en fläkt och dra igång den. Titta på en fast punkt och du ser inte fläktbladen.
Börjar snabbt flytta ögat fram och tillbaka och varje gång du rört ögat kommer du se en "stillbild" av ekrarna. Observera att du måste sätta blicken på en fast punkt varje gång du rör ögat.
Du kan även se hur ögat och hjärnan påverkas av att du rör ögat. Ladda ner den här Powerpointfilen: http://www.jazzil.se/forum/ogat.pps
Test 1 till 4 visar hur du får något som inte alls stämmer överens med verkligheten.
På test 7 där kommer du se hur ögat beter sig p.g.a. att det är en biologisk ”kamera”. Eftersom tapparna och stavarna är beroende av ny information hela tiden (därav att ögat alltid rör slit lite lite lite) så kommer dom små cirklarna i periferiseendet försvinna när du fokuserar på cirkeln i mitten.
Skrivet av Knashatt:
Tex så kan människan uppfatta en skillnad på så snabba hastigheter att vi pratar om över 500 FPS. Om vi tex ser 500 vita rutor i sekunden under 5 minuter och EN enda svart ruta kommer upp så kommer du förmodligen kunna uppfatta att det kom en svart ruta.
MEN om du däremot tar och viras varannan ruta vit och varannan ruta svart kommer du inte kunna uppfatta detta som det är svarta och vita rutor som kommer varannan gång. Du kommer se detta som en gråskala istället.
Sen den här posten som jag tycker belyser den stora frågan...
Skrivet av Ratatosk:
Lite om varför det funkar bra med 24 bilder per sekund för film.
När man filmar med vanlig film öppnas slutaren ca 1/24 sekund, den stängs och nästa bild dras fram osv.
Det gör att man i varje bild får med en blandning av allt som hänt under 1/24 sekund, en tårta som flyger igenom rummet finns som ett suddigt streck från den plats den startar till den plats den slutar, något som gör att det blir flyt i rörelserna när man ser filmen.
När den digitala videon kom, fick man möjlighet att använda konstlat korta slutartider per bild, alltså mycket mindre än 1/24 sekund, vilket en del tyvärr gjort.
Resultatet blir att varje bild ser skarp ut men man får en effekt som påminner om befinna sig under en stroboskoplampa.
Det är denna avsaknad av rörelse-oskärpa som gör att många ser skillnad mellan 30 fps och 60 fps på datorn.
Det är väl det mest vettiga som skrivits. Det beror helt på hur bildsekvensen är konstruerad om man kan se skillnad eller inte. LCD paneler med dålig respons ger samma effekt som motion blur och gör det svårare att urskilja skillnader mellan olika frame rate.
Egentligen två frågor som borde besvaras: Vilken skillnad i frame rate är möjlig att detektera i film som är konstruerad med motion blur och vilken behövs i digital media utan motion blur? En förutsättning för jämförelser är dock att filmsekvensen spelas upp i samma refresh rate som frame rate,
Det enda faktiska som har framkommit hittils i tråden och som man kan testa själv är denna länk:
http://boallen.com/fps-compare.html
Borde fungera som ett bevis på att det krävs minst 30 fps utan motion blur.