PDA

Visualizza Versione Completa : Come farsi un'idea dello screen door effect e dell'aliasing



rigelpd
27-03-2016, 10:37:28
Visto che molti non hanno realmente idea di cosa aspettarsi in termini di risoluzione percepita e screen door effect da parte del Vive e del Rift eccovi il modo più semplice per farvi un'idea:

Basta osservare un TV 42 pollici Full HD da una distanza di 28.5 cm. L'aliasing percepito sarà esattamente quello che vedremo nei visori VR, lo screen door effect potrebbe essere un pò minore nei visori se il display è costruito in modo da minimizzarlo ma l'aliasing (risoluzione percepita, scalettatura) sarà esattamente quello che vedete.

Se avete dei tv con diverso polliciaggio basta fare la proporzione:

42 pollici --> 28.5 cm
46 pollici --> 31.2 cm
55 pollici --> 37.3 cm
65 pollici --> 44.1 cm

Se guardate un TV 4k dovete dimezzare quelle distanze.

In teoria potreste fare la prova anche su un monitor ma la distanza dalla quale dovreste guardarlo sarebbe minore di 20cm, e a distanze minori di 20cm l'occhio umano non è in grado di mettere a fuoco senza l'ausilio di lenti.

Per chi volesse sapere come ho ricavato questi dati:

Il FOV verticale dei visori sarà molto simile a quello del DK2 (al limite di poco superiore ma la differenza è minima). Il valore del vertical FOV del DK2 è 85°.
Gli schermi dei due Visori sono 1200x1080, quindi verticalmente abbiamo 1080 pixel, come in un TV full hd. A questo punto quindi bisogna semplicemente trovare una formula che ci permetta di calcolare a quale distanza metterci da un TV di dato polliciaggio per fa si che tale TV sottenda all'osservatore un angolo di 85°

Con la trigonometria ho ricavato questa formula (non vi stò a scrivere i passaggi) e per un 42 pollici mi ha dato 28.5 cm. Dopodichè per trovare la distanza equivalente per gli altri TV basta fare una semplice proporzione.

NB. Non vi fidate dei video o delle applicazioni che trovate in rete che, nella maggiorparte dei casi, sono girati da gente che non ha una minima idea della trigonometria.

ClaudioVR
27-03-2016, 15:33:31
Sono titubante sul risulatato che si può ottenere facendo questa prova, ci sono troppe incognite che non si conoscono in maniera dettagliata e che andrebbero prese in considerazione.
Per quello che riguarda l'SDE (screen door effect) non c'è modo di sapere come si presenterà se non avendolo provato, dipenderà molto dal tipo di matrice utilizzata e di cui io, nonostante le ricerche non ho ancora trovato una risposta precisa. La distanza tra i pixel sarà fondamentale ed essendo degli schermi "proprietari" non utilizzati su altri smartphone anche li è difficile conoscere le specifiche.
Per quanto riguarda l'aliasing, andrebbe visto come è impostata una tv, se togliamo nitidezza aumentiamo l'anti aliasing, se la aumentiamo viceversa avremo più aliasing, senza contare poi i siongoli software che potrebbero essere impostati di base su settaggi diversi o potrebbero permettere di modificare questo parametro in base alle preferenze dell'utente.

Per farla breve, in teoria il tuo calcolo potrebbe anche essere perfertto ma in pratica le cose potrebbero risultare ben diverse.

ClaudioVR
27-03-2016, 15:47:09
Aggiungo una mi personale opinione, in quanto a device provati (provati a fondo) sono fermo al dk2 e chi lo ha avuto tra le mani per diverso tempo come me, saprà benissimo che l'effetto screendoor è molto più limitante di quanto possa esserlo una risoluzione bassa. In molti che hanno provato sia il dk2 che le versioni commerciali di oculus/vive/psvr si sente dire più o meno le stesse cose, ovvero che è molto migliore la visione su questi ultimi ma che l'SDE è ancora presente, mi chiedo quanto sia presente rispetto ad un dev kit 2. sarà limitante o solo percettibile ma poco invasivo?
Penso che questo fattore determinerà molto l'attuale sviluppo di software per la VR. Faccio un esempio, se pensiamo ad un fps shooter classico, molto spesso capita di dover sparare a personaggi molto lontani e che nella visuale appaiono piccoli, se la stessa cosa accadesse in vr sarebbe difficile riuscire a individuare un soggetto composto da troppi pochi pixel con un effetto screendoor che ne limita ancora di più la visione, probabilmente in quel caso si punterebbe più sul produrre esperienze con scontri a distanze maggiormente ravvicinate. Spero di aver reso l'idea.

rigelpd
27-03-2016, 16:00:17
Sono titubante sul risulatato che si può ottenere facendo questa prova, ci sono troppe incognite che non si conoscono in maniera dettagliata e che andrebbero prese in considerazione.
Per quello che riguarda l'SDE (screen door effect) non c'è modo di sapere come si presenterà se non avendolo provato, dipenderà molto dal tipo di matrice utilizzata e di cui io, nonostante le ricerche non ho ancora trovato una risposta precisa. La distanza tra i pixel sarà fondamentale ed essendo degli schermi "proprietari" non utilizzati su altri smartphone anche li è difficile conoscere le specifiche.
Per quanto riguarda l'aliasing, andrebbe visto come è impostata una tv, se togliamo nitidezza aumentiamo l'anti aliasing, se la aumentiamo viceversa avremo più aliasing, senza contare poi i siongoli software che potrebbero essere impostati di base su settaggi diversi o potrebbero permettere di modificare questo parametro in base alle preferenze dell'utente.

Per farla breve, in teoria il tuo calcolo potrebbe anche essere perfertto ma in pratica le cose potrebbero risultare ben diverse.


Chiaramente se il tv è dotato di una funzione antialising tutto il discorso crolla, io ad esempio uso il TV come monitor del pc, so quando è attivo un antialising e quando no. Il mio post era principalmente volto a far capire a chi non ha mai provato la VR l'ordine di grandezza dell'aliasing e dello SDE a cui andranno incontro.
L'ho aperto dopo aver visto l'ennesimo video su youtube dove gente che non ha la più pallida idea della trigonometria e dell'ottica si propone di mostrare l'SDE del Vive postando dei semplici screenshot senza specificare a che distanza bisogna guardarli e su schermi di quali dimensione. Per chiarirci, questo video qui sotto è una presa in giro:


https://www.youtube.com/watch?v=eS-Ii-4NHEk

ClaudioVR
27-03-2016, 18:20:21
Hehe, in effetti mettere la telecamera attaccata alla lente non mi sembra il massimo, idem per gli screenshot che sono postati nel link del video, restano immagini catturate con uno strumento digitale e non con occhio umano.
l'unica cosa che può far pensare che in realtà possa essere molto simile al video è che il tipo ovviamente possiede il vive e ne consegue che probabilmente prima di postare il video abbia fatto un confronto tra quello e quello che si vede in realtà, trovandolo indicativamente simile.....cmq dal video l'effetto screendoor non sembra molto accentuato, anzi....

rigelpd
27-03-2016, 18:37:32
Hehe, in effetti mettere la telecamera attaccata alla lente non mi sembra il massimo, idem per gli screenshot che sono postati nel link del video, restano immagini catturate con uno strumento digitale e non con occhio umano.
l'unica cosa che può far pensare che in realtà possa essere molto simile al video è che il tipo ovviamente possiede il vive e ne consegue che probabilmente prima di postare il video abbia fatto un confronto tra quello e quello che si vede in realtà, trovandolo indicativamente simile.....cmq dal video l'effetto screendoor non sembra molto accentuato, anzi....

Ora, indipendentemente dal fatto che ci sia una differenza tra l'occhio umano e una telecamera c'è proprio un errore di fondo che non capisco come molti non riescano a comprendere.

L'errore di fondo è che se io faccio delle foto del display del Vive in cui voglio mostrare le prestazioni in termini di SDE e aliasing e le allego si internet non specificando che vanno guardate ad una distanza specifica in relazione al monitor che stai usando il risultato è che ognuno trae una conclusione diversa.

Cioè se io prendo questa foto:

http://i.imgur.com/kvde4PU.jpg


-Se la guardo a pieno schermo su un monitor 24 pollici da una distanza di mezzo metro allora mi rendo conto che c'è un po di SDE.
-Se la guardo da 1 metro dirò che c'è meno SDE e trarrò la conclusione che il display del Vive è molto buono
-Se guardo la stessa identica foto a pieno schermo ma su un 24 pollici visto da una distanza di 5 metri mi sembrerà che non c'è nessun SDE
-Idem se la guardo sempre da mezzo metro ma su un display 4 pollici.
In questi ultimi due casi finirei per concludere che lo schermo del Vive non ha nessun SDE.
Insomma non esiste modo per farsi un'idea univoca dello SDE se non si specifica la distanza alla quale guardare l'immagine in base alla dimensione dello schermo.

ClaudioVR
27-03-2016, 20:44:14
Si, comunque penso anch'io che giudicare da un video sia impossibile, non ci resterà che provare. :sisi:

jared1976
28-03-2016, 12:07:00
Si, comunque penso anch'io che giudicare da un video sia impossibile, non ci resterà che provare. :sisi:
Idem, mi aggiungo... Penso che provarlo sia l'unico modo per capire l'effetto reale delle immagini. Anche perché dobbiamo aggiungere la deformazione della lente, se portiamo occhiali o meno, ecc... Ci sono tanti fattori che vanno ad incidere sulla sensazione personale.

Circio
28-03-2016, 15:13:23
Visto che molti non hanno realmente idea di cosa aspettarsi in termini di risoluzione percepita e screen door effect da parte del Vive e del Rift eccovi il modo più semplice per farvi un'idea:

Basta osservare un TV 42 pollici Full HD da una distanza di 28.5 cm. L'aliasing percepito sarà esattamente quello che vedremo nei visori VR, lo screen door effect potrebbe essere un pò minore nei visori se il display è costruito in modo da minimizzarlo ma l'aliasing (risoluzione percepita, scalettatura) sarà esattamente quello che vedete.

Se avete dei tv con diverso polliciaggio basta fare la proporzione:

42 pollici --> 28.5 cm
46 pollici --> 31.2 cm
55 pollici --> 37.3 cm
65 pollici --> 44.1 cm

Se guardate un TV 4k dovete dimezzare quelle distanze.

In teoria potreste fare la prova anche su un monitor ma la distanza dalla quale dovreste guardarlo sarebbe minore di 20cm, e a distanze minori di 20cm l'occhio umano non è in grado di mettere a fuoco senza l'ausilio di lenti.

Per chi volesse sapere come ho ricavato questi dati:

Il FOV verticale dei visori sarà molto simile a quello del DK2 (al limite di poco superiore ma la differenza è minima). Il valore del vertical FOV del DK2 è 85°.
Gli schermi dei due Visori sono 1200x1080, quindi verticalmente abbiamo 1080 pixel, come in un TV full hd. A questo punto quindi bisogna semplicemente trovare una formula che ci permetta di calcolare a quale distanza metterci da un TV di dato polliciaggio per fa si che tale TV sottenda all'osservatore un angolo di 85°

Con la trigonometria ho ricavato questa formula (non vi stò a scrivere i passaggi) e per un 42 pollici mi ha dato 28.5 cm. Dopodichè per trovare la distanza equivalente per gli altri TV basta fare una semplice proporzione.

NB. Non vi fidate dei video o delle applicazioni che trovate in rete che, nella maggiorparte dei casi, sono girati da gente che non ha una minima idea della trigonometria.

Io direi che no, non funziona come sistema.

Il rendering sullo schermo VR non è una superficie piana; bisogna considerare l'ottica (di cui non sappiamo nulla, nelle versioni retail) e la disposizione fisica dei pixel (quanta distanza, che ordine, ecc.).

Così come non funzionano i vari "simulatori" che girano sul web (e nemmeno le foto con la griglia in "real life").

E nemmeno i video con l'obiettivo infilato dentro al visore rendono l'idea.

Ed avendo provato quasi tutti i visori (tranne le versioni consumer, che proverò tra qualche giorno) vi posso assicurare che l'SDE è il male minore, e di certo non è un problema.

ClaudioVR
28-03-2016, 15:28:11
Io direi che no, non funziona come sistema.

Il rendering sullo schermo VR non è una superficie piana; bisogna considerare l'ottica (di cui non sappiamo nulla, nelle versioni retail) e la disposizione fisica dei pixel (quanta distanza, che ordine, ecc.).

Così come non funzionano i vari "simulatori" che girano sul web (e nemmeno le foto con la griglia in "real life").

E nemmeno i video con l'obiettivo infilato dentro al visore rendono l'idea.

Ed avendo provato quasi tutti i visori (tranne le versioni consumer, che proverò tra qualche giorno) vi posso assicurare che l'SDE è il male minore, e di certo non è un problema.

Innanzi tutto, ciao Circio.
Non sono d'accordo con te per quanto riguarda il peso dell'effetto SDE nei visori vr, Avendo avuto per parecchio tempo dk1 e dk2 posso dire che in effetti all'inizio si nota per poi scemare durante la prova fino e rendersene poco conto dopo qualche minuto, il problema non è però quello, in un utilizzo più prolungato torna pesantemente a farsi sentire durante tutti quei momenti in cui ti ritrovi ad osservare oggetti che non si trovano nelle immediate vicinanze.
Sicuramente il problema viene dato principalmente dalla bassa risoluzione dello schermo ma viene esponenzialmente accentuato dall'SDE che va a creare un'immagine "spezzata" di ciò che stai vedendo.
Per le esperienze avute reputo l'SDE un problema maggiore di quanto possa esserlo la scarsa risoluzione.
Spero che con i nuovi schermi appositamente studiati per la vr siano riusciti a ridurre di molto il problema ma non avendo mai provato una consumer version non ho idea di cosa aspettarmi.

Circio
28-03-2016, 15:38:47
Innanzi tutto, ciao Circio.
Non sono d'accordo con te per quanto riguarda il peso dell'effetto SDE nei visori vr, Avendo avuto per parecchio tempo dk1 e dk2 posso dire che in effetti all'inizio si nota per poi scemare durante la prova fino e rendersene poco conto dopo qualche minuto, il problema non è però quello, in un utilizzo più prolungato torna pesantemente a farsi sentire durante tutti quei momenti in cui ti ritrovi ad osservare oggetti che non si trovano nelle immediate vicinanze.
Sicuramente il problema viene dato principalmente dalla bassa risoluzione dello schermo ma viene esponenzialmente accentuato dall'SDE che va a creare un'immagine "spezzata" di ciò che stai vedendo.
Per le esperienze avute reputo l'SDE un problema maggiore di quanto possa esserlo la scarsa risoluzione.
Spero che con i nuovi schermi appositamente studiati per la vr siano riusciti a ridurre di molto il problema ma non avendo mai provato una consumer version non ho idea di cosa aspettarmi.

È sicuramente un problema, ma non il problema maggiore.

I problemi più importanti sono il framerate, il refresh dello schermo, la stabilità dell'immagine e l'accuratezza del tracking.

La risoluzione è un fattore meno imporante; basta infilarsi un Gear VR per rendersene conto: l'SDE è ancora visibilissimo (come su DK2) nonostante la risoluzione sia decisamente più alta (2560x1440, su S7); questo in sostanza perché l'ottica del Gear VR e lo schermo del cellulare non sono pensati per la VR.

Per quanto non mi fidi di sistemi empirici artigianali per controllare l'SDE, il video del Vive presenta una situazione decisamente buona, e sicuramente migliore di DK2 e GearVR.

C'è una questione ulteriore, poi: il software incide moltissimo sulla percezione dell'SDE.

In alcune applicazioni è poco visibile anche su DK2 (per esempio Live for Speed, o certi video 360, specie video porno, perché sono quelli realizzati con più cura).

A livello di fruizione, però, sono altri i fattori che possono rendere la VR un'esperienza spiacevole.

rigelpd
28-03-2016, 15:51:31
Io direi che no, non funziona come sistema.

Il rendering sullo schermo VR non è una superficie piana; bisogna considerare l'ottica (di cui non sappiamo nulla, nelle versioni retail) e la disposizione fisica dei pixel (quanta distanza, che ordine, ecc.).

Così come non funzionano i vari "simulatori" che girano sul web (e nemmeno le foto con la griglia in "real life").

E nemmeno i video con l'obiettivo infilato dentro al visore rendono l'idea.

Ed avendo provato quasi tutti i visori (tranne le versioni consumer, che proverò tra qualche giorno) vi posso assicurare che l'SDE è il male minore, e di certo non è un problema.

Il mio ragionamento è:

Prendiamo un vettore verticale di 1080 pixel: sia il Vive/Rift sia un TV full HD presenta lo stesso numero di pixel in verticale.
Il campo inquadrato da tale vettore nel DK2 è 85° e non dovrebbe essere molto diverso da quello inquadrato da Vive e Rift CV1.
Se dividiamo il numero di pixel per i gradi otteniamo quanti pixel per grado ci sono:

12.7 pixel per grado. (più questo numero è grande meno evidente è l'aliasing)

Vediamo cosa vuol dire avere 12.7 pixel per grado di campo visivo?

A questo punto mi sono semplicemente messo a calcolare a quale distanza pormi da una TV di dato polliciaggio per poter vedere lo stesso numero di pixel per grado. In pratica è la distanza alla quale il lato verticale della TV sottende all'osservatore un angolo di 85°.

Per un TV 42 pollici il lato verticale è:

52.3 cm.

tangente di alfa mezzi è pari a (52.3/2) diviso per x

Dove x è la distanza alla quale devi metterti.

X = 28.5 cm

A questa distanza se tu prendi un TV 42 pollici full hd in cui è visualizzata l'immagine di una linea diagonale (per rendere facile la stima dell'aliasing) e ovviamente senza inserire nessun effetto di antialiasing. la scalettatura che vedrai nella riga diagonale è con ottima approssimazione quella che vedrai nel Vive/Rift.

Questo ovviamente nella zona centrale del TV, nella zona periferica c'è da tenere conto di una deformazione dovuta alla proiezione ma resta il fatto che una stima più che buona si può fare in questo modo. Alla fine di tutto, quello che conta nella stima dell'aliasing è il numero di pixel per grado.

Circio
28-03-2016, 15:59:03
Alla fine di tutto, quello che conta nella stima dell'aliasing è il numero di pixel per grado.

Dovresti anche considerare però il tempo; pixel per arcsecond ;)

rigelpd
28-03-2016, 16:00:20
È sicuramente un problema, ma non il problema maggiore.

I problemi più importanti sono il framerate, il refresh dello schermo, la stabilità dell'immagine e l'accuratezza del tracking.

La risoluzione è un fattore meno imporante; basta infilarsi un Gear VR per rendersene conto: l'SDE è ancora visibilissimo (come su DK2) nonostante la risoluzione sia decisamente più alta (2560x1440, su S7); questo in sostanza perché l'ottica del Gear VR e lo schermo del cellulare non sono pensati per la VR.

Per quanto non mi fidi di sistemi empirici artigianali per controllare l'SDE, il video del Vive presenta una situazione decisamente buona, e sicuramente migliore di DK2 e GearVR.

C'è una questione ulteriore, poi: il software incide moltissimo sulla percezione dell'SDE.

In alcune applicazioni è poco visibile anche su DK2 (per esempio Live for Speed, o certi video 360, specie video porno, perché sono quelli realizzati con più cura).

A livello di fruizione, però, sono altri i fattori che possono rendere la VR un'esperienza spiacevole.

Posso capire che a fronte della maestosità della VR e della presenza il difetto dell'aliasing passi in secondo piano però l'SDE e ancora di più l'aliasing attualmente è qualcosa che comunque limita l'esperienza di gioco in modo pesante.

Tutti quei giochi in cui bisogna guardare oggetti piccoli e lontani o leggere caratteri di dimensioni piccole risultano limitati.Un esempio sono i giochi di guida in cui si può avere difficoltà a distinguere le curve della strada perchè sono formate da pochi pixel, personaggi distanti qualche decina di metri sono difficili da distinguere perchè formati da una manciata di pixel etc...

Non ho aperto questo topic per criticare la VR (tra poco più di una settimana mi arriva il Vive) ma per discutere di una delle specifiche hardware più fraintesa

rigelpd
28-03-2016, 16:01:24
Dovresti anche considerare però il tempo; pixel per arcsecond ;)

Scusami ma non ho capito se questa è una battuta :D

Circio
28-03-2016, 16:12:16
Scusami ma non ho capito se questa è una battuta :D

Era una battuta in riferimento al tempo, giocata sull'ambiguità della misura del secondo, che vale per il tempo come per gli angoli.

Però non è una battuta: devi davvero considerare il numero di pixel per secondi d'arco, trattandosi di valori angolari molto piccoli su di una superficie effettivamente sferica.

Nell'ingegneria ottica è una misura molto comune (ed è anche misura dell'acuità visiva, tra l'altro).

rigelpd
28-03-2016, 16:15:00
Era una battuta in riferimento al tempo, giocata sull'ambiguità della misura del secondo, che vale per il tempo come per gli angoli.

Però non è una battuta: devi davvero considerare il numero di pixel per secondi d'arco, trattandosi di valori angolari molto piccoli.

Mi sembra perfettamente gestibile con i gradi 12.7 pixel per grado.

Se invece volessi esprimere quanti gradi occupa un pixel li si che mi converrebbe passare ai secondi d'arco, o almeno ai primi

1 pixel ogni 283 secondi d'arco

Circio
28-03-2016, 16:22:54
Mi sembra perfettamente gestibile con i gradi 12.7 pixel per grado.

Se invece volessi esprimere quanti gradi occupa un pixel li si che mi converrebbe passare ai secondi d'arco, o almeno ai primi

1 pixel ogni 283 secondi d'arco

Sì i calcoli possono funzionare; il mio problema è il paragone continuo a display tradizionali. È impossibile paragonarli.

Tutte le misure convenzionali come diagonale, distanza, PPI, sono irrilevanti in VR a causa dell'ottica.

È il FOV proiettato a determinare la densità (per grado, arco, ecc.).

L'SDE su DK2 sarebbe identico anche se lo schermo fosse 2" o 20".

Alexander11
28-03-2016, 16:30:47
Aggiungo a quello che dice il buon Circio che a parità di pixel per angolo di visione, i display del Rift sono ingegnerizzati appositamente per ridurre lo SDE, quindi non si può paragonarli con altri schermi consumer in cui questo dettaglio è ritenuto irrilevante

rigelpd
28-03-2016, 16:51:33
Sì i calcoli possono funzionare; il mio problema è il paragone continuo a display tradizionali. È impossibile paragonarli.

Tutte le misure convenzionali come diagonale, distanza, PPI, sono irrilevanti in VR a causa dell'ottica.

È il FOV proiettato a determinare la densità (per grado, arco, ecc.).

L'SDE su DK2 sarebbe identico anche se lo schermo fosse 2" o 20".

Ed è il motivo per cui io parlo di pixel per grado e non di pixel per pollice...

E' il motivo per cui ti ho calcolato la distanza alla quale un TV full hd da 42 pollici sottende lo stesso angolo dello schermo del Vive/Rift. Il paragone ha senso.

Le ottiche nei visori non hanno la funzione di ingrandire lo schermo, hanno solo la funzione di permetterne a messa a fuoco. (visto che l'occhio umano non è in grado di mettere a fuoco oggetti più vicini di 20cm. Non c'è niente di così diverso, in un caso abbiamo uno schermo piccolo vicino, nell'altro abbiamo uno schermo grande più lontano, ma sono messi entrambi in modo da distribuire i loro 1080 pixel in un campo di 85°

rigelpd
28-03-2016, 16:52:47
Aggiungo a quello che dice il buon Circio che a parità di pixel per angolo di visione, i display del Rift sono ingegnerizzati appositamente per ridurre lo SDE, quindi non si può paragonarli con altri schermi consumer in cui questo dettaglio è ritenuto irrilevante

Questa tua osservazione vale per l'SDE ma non per l'aliasing. Per l'aliasing il mio paragone è corretto

Circio
28-03-2016, 16:58:09
Le ottiche nei visori non hanno la funzione di ingrandire lo schermo, hanno solo la funzione di permetterne a messa a fuoco. (visto che l'occhio umano non è in grado di mettere a fuoco oggetti più vicini di 20cm. Non c'è niente di così diverso, in un caso abbiamo uno schermo piccolo vicino, nell'altro abbiamo uno schermo grande più lontano, ma sono messi entrambi in modo da distribuire i loro 1080 pixel in un campo di 85°

No, l'ottica serve a correggere la distorsione necessaria a "proiettare" (termine improprio) lo schermo piano su di una sfera.

Non è una questione di fuoco. È molto più complicato di così.

Per questo ogni paragone con uno schermo 2d è inutile.

rigelpd
28-03-2016, 17:12:08
No, l'ottica serve a correggere la distorsione necessaria a "proiettare" (termine improprio) lo schermo piano su di una sfera.

Non è una questione di fuoco. È molto più complicato di così.

Per questo ogni paragone con uno schermo 2d è inutile.

No. L'ottica non corregge alcuna distorsione anzi ne introduce un paio...:

La distorsione a cuscino (enormemente maggiore di quella di cui parli) e la aberrazione cromatica. Entrambe queste aberrazioni devono essere corrette via software.
Questo perchè un sistema ottico che lavora su un campo così grande non solo non corregge le distorsioni ma ne introduce, tutte le aberrazioni ottiche sono proporzionali al Fov. maggiore è il Fov e maggiori sono le aberrazioni. Per correggerle in ottica si usano sistemi di lenti molto complessi formati da numerose lenti, questo però è impossibile nei visori e quindi si correggono le aberrazioni via software; è il motivo per cui le immagini sorgente del Rift appaiono così deformate ed aberrate: perchè il software introduce una deformazione a botte che sommata alla distorsione a cuscino introdotta dalle lenti si annulla (stesso discorso per l'aberrazione cromatica).

Circio
28-03-2016, 17:17:34
è il motivo per cui le immagini sorgente del Rift appaiono così deformate ed aberrate: perchè il software introduce una deformazione a botte che sommata alla distorsione a cuscino introdotta dalle lenti si annulla (stesso discorso per l'aberrazione cromatica.

Stiamo sostanzialmente dicendo le stesse cose.

L'ottica non è lì per "mettere a fuoco e basta" come hai scritto tu. Altrimenti qualsiasi applicazione potrebbe andare benissimo senza alcun intervento sul rendering. Il pc renderizza a botte e la lente ti mostra il "mondo" a grandezza naturale.

Se togli le lenti dal dk2 riesci benissimo a mettere a fuoco lo schermo sottostante.

E se vuoi una controprova basta lanciare qualsiasi cosa non vr e guardare attraverso le lenti: alternando gli occhi vedrai lo schermo ingrandito.

rigelpd
28-03-2016, 17:28:39
Stiamo sostanzialmente dicendo le stesse cose.

L'ottica non è lì per "mettere a fuoco e basta" come hai scritto tu. Altrimenti qualsiasi applicazione potrebbe andare benissimo senza alcun intervento sul rendering. Il pc renderizza a botte e la lente ti mostra il "mondo" a grandezza naturale.

Se togli le lenti dal dk2 riesci benissimo a mettere a fuoco lo schermo sottostante.

E se vuoi una controprova basta lanciare qualsiasi cosa non vr e guardare attraverso le lenti: alternando gli occhi vedrai lo schermo ingrandito.

La cosa chiara e lampante è che in entrambi i casi (TV e DK2) abbiamo 1080 pixel in un campo di 85°, 12.7 pixel per grado almeno nel centro del TV (perchè il TV è piatto come hai osservato tu e quindi in periferia la densità proiettata può essere diversa) la densità a quella distanza è quella ed è la stessa che hai sul DK2.

Non c'è molto da obiettare, 12.7 pixel per grado hai da una parte e 12.7 pixel per grado hai dall'altra.

Super Game-guru
7-04-2016, 11:04:48
Se togli le lenti dal dk2 riesci benissimo a mettere a fuoco lo schermo sottostante.


Oddio...mica vero. Se tieni lo schermo troppo vicino agli occhi vedi tutto sfuocato. Lo so perchè ci ho provato varie volte mentre progettavo i miei cardboard-mostri. Le lenti hanno più di un utilità...