Seguimento ocular
As referencias deste artigo non teñen un formato correcto. Podes colaborar editándoas como se indica nesta páxina. Pode axudar a mellorar este artigo e outros en condicións semellantes. |
O seguimento ocular é o proceso de medir o punto de visión (onde un está ollando) ou o movemento dun ollo con respecto á cabeza. Un rastrexador ocular é un dispositivo que mide as posicións do ollo e os movementos oculares. Os rastrexadores oculares utilízanse na investigación do sistema visual, en psicoloxía, en psicolingüística, en mercadotecnia, como dispositivos de entrada na interacción humano-ordenador, e no deseño de produtos. Ademais, os rastrexadores oculares están sendo cada vez máis utilizados para aplicacións asistenciais e de rehabilitación, como no control de cadeiras de rodas, brazos robóticos e próteses. Recentemente, o seguimento ocular foi examinado como ferramenta para a detección precoz do trastorno do espectro do autismo. Existen varios métodos para medir os movementos dos ollos, sendo a variante máis popular o emprego de imaxes de vídeo para extraer a posición dos ollos. Outros métodos usan dispositivos de campo magnético ou baséanse nos electrooculogramas
Historia
[editar | editar a fonte]No século XIX, os estudos de movemento ocular facíanse mediante a observación directa. Por exemplo, Louis Émile Javal observou, no 1879, que a lectura non implica un varrido suave dos ollos ao longo do texto, como se supoñía anteriormente, senón unha serie de paradas curtas (chamadas fixacións) e saltos rápidos (sacadas).[1] Esta observación suscitou importantes cuestións sobre a lectura, cuestións que se exploraron durante o século XX: En que palabras se paran os ollos? Durante canto tempo? Cando regresan os ollos ás palabras xa vistas?
Edmund Huey[2] construíu un dos primeiros rastrexadores oculares, utilizando unha especie de lente de contacto cun buraco para a pupila. A lente estaba conectada a un punteiro de aluminio que se movía en resposta ao movemento do ollo. Huey estudou e cuantificou as regresións (só unha proporción pequena das sacadas son regresións), e demostrou que algunhas palabras das oracións non reciben fixacións.
Os primeiros rastrexadores oculares non-intrusivos foron construídos por Guy Thomas Buswell en Chicago, utilizando raios de luz que se reflectían no ollo, e despois gravábanse nunha película. Buswell fixo estudos sistemáticos sobre a lectura[3][4] e a visualización de imaxes.[5]
Na década dos 50 do século XX, Alfred L. Yarbus [6] levou a cabo investigacións sobre seguimento ocular e cítase a miúdo o seu libro de 1967. Demostrou que a tarefa que se lle da a un suxeito ten unha grande influencia sobre os seus movementos oculares. Tamén escribiu sobre a relación entre fixacións e interese:
O patrón cíclico no exame de imaxes (scanpath) "depende, non só do que se amosa na imaxe, senón tamén do problema ao que se enfronta o observador e da información que espera obter desa imaxe."[7]
Todos os rexistros... mostran de forma concluínte que o carácter do movemento dos ollos é completamente independente ou só depende moi lixeiramente do material da imaxe e de como fora feita, sempre que sexa plana ou case plana"[8]
Os rexistros de movementos oculares mostran que a atención do observador adoita ser mantida só por certos elementos da imaxe.... O movemento dos ollos reflicte os procesos do pensamento humano; deste modo o pensamento do observador pode seguirse, en certa medida, a partir dos rexistros do movemento ocular (o pensamento que acompaña ao exame do obxecto en particular). É doado determinar, a partir destes rexistros, que elementos atraen a mirada do observador (e, en consecuencia, o seu pensamento), en que orde e con que frecuencia.[8]
A atención dun observador vese frecuentemente atraída por elementos que non aportan información importante, pero que, na súa opinión, poderían facelo. Moitas veces o observador centrará a súa atención en elementos que son pouco habituais nas circunstancias particulares, descoñecidos, incomprensibles, etc.[9]
... ao cambiar os seus puntos de fixación, o ollo do observador volve repetidamente aos mesmos elementos da imaxe. O tempo adicional dedicado á percepción non se utiliza para examinar os elementos secundarios, senón para reexaminar os elementos máis importantes.[10]
Na década dos 70, a investigación sobre seguimento ocular expandiuse rapidamente, sobre todo na investigación en lectura. Unha boa revisión da investigación deste período é a feita por Rayner.[13]
En 1980, Just e Carpenter [14] formularon a influínte hipótese do principio ollo-mente, que di que "non hai un desfase apreciable entre o que fixamos e o que procesamos". Se esta hipótese é correcta, entón cando un suxeito mira unha palabra ou un obxecto, tamén pensa nel (procésao cognitivamente), durante exactamente o tempo que dura a fixación rexistrada. A hipótese é a miúdo admitida polos investigadores que utilizan o seguimento ocular. Porén, as técnicas de continxencia da mirada ofrecen unha interesante opción para desligar a atención aberta da atención encuberta, e así diferenciar o que se fixa do que se procesa.
Durante a década de 1980, a hipótese ollo-mente foi cuestionada a miúdo tendo en conta a atención encuberta, a atención a algo que non se mira, e que a xente adoita facer. [15][16] Se a atención encuberta é común durante as gravacións de seguimento ocular, a traxectoria de exploración (scanpath) e os patróns de fixación resultantes a miúdo mostrarían, non onde estivo a atención, senón só onde estivo mirando o ollo, sen indicar o procesamento cognitivo.
Os anos 80 tamén viron o nacemento do uso do seguimento ocular para responder preguntas relacionadas coa interacción humano-ordenador. Especificamente, investigouse como os usuarios buscan comandos nos menús do ordenador. [17] Ademais, os ordenadores permitían aos investigadores utilizar os resultados do seguimento ocular en tempo real, principalmente para axudar aos usuarios con discapacidade.
Máis recentemente, houbo un crecemento no uso do seguimento ocular para estudar como interactúan os usuarios con diferentes interfaces de ordenador. As preguntas específicas que fan os investigadores están relacionadas co fácil que son as diferentes interfaces para os usuarios. Os resultados da investigación en seguimento ocular poden levar a cambios no deseño da interface. Outra área recente de investigación céntrase no desenvolvemento web. Isto pode incluír como reaccionan os usuarios aos menús despregables ou onde centran a súa atención nun sitio web, para que o programador saiba onde colocar un anuncio.[18]
Segundo Hoffman,[19] o consenso actual é que a atención visual sempre está lixeiramente (100 a 250 ms) por diante do ollo. Pero tan pronto como a atención se traslada a unha nova posición, os ollos quererán seguila.[20]
Aínda non podemos inferir directamente procesos cognitivos específicos a partir da fixación nun obxecto particular nunha escena.[21] Por exemplo, unha fixación sobre un rostro nunha imaxe pode indicar recoñecemento, gusto, aversión, perplexidade, etc. Polo tanto, o seguimento ocular debe combinarse con outras metodoloxías, como os protocolos verbais introspectivos.
Actualmente, grazas aos avances nos dispositivos electrónicos portátiles, os rastrexadores oculares portátiles montados na cabeza poden acadar un excelente rendemento e están sendo cada vez máis utilizados en aplicacións de investigación e de mercado orientadas á configuración da vida diaria.[22] Estes mesmos avances provocaron un aumento no estudo dos micromovementos oculares que se producen durante a fixación, tanto no laboratorio como en escenarios aplicados.[23]
No século XXI, o uso da intelixencia artificial (IA) e das redes neuronais artificiais converteuse nunha forma viable de completar tarefas e análises de seguimento ocular. En particular, a rede neuronal convolucional préstase ao seguimento ocular, xa que está deseñada para tarefas centradas na imaxe. Coa IA, as tarefas e estudos de seguimento ocular poden proporcionar información adicional que quizais non podería ser detectada polos observadores humanos. A práctica da aprendizaxe profunda tamén permite que unha determinada rede neuronal mellore nunha determinada tarefa cando se lle proporcionan suficientes datos de mostra. Non obstante, isto require unha oferta relativamente grande de datos de adestramento.[24]
Os posibles casos de uso da IA no seguimento ocular abranguen unha ampla gama de temas, desde aplicacións médicas[25] ata seguridade na condución, teoría de xogos[26] e mesmo aplicacións de educación e formación.[27][28][29]
Tipos de rastrexadores
[editar | editar a fonte]Os rastrexadores oculares miden as rotacións do ollo de varias maneiras, pero principalmente caen nunha destas tres categorías:
- Medida do movemento dun obxecto (normalmente, unha lente de contacto especial) pegado ao ollo
- Seguimento óptico sen contacto directo có ollo
- Medida dos potenciais eléctricos mediante eléctrodos colocados ao redor dos ollos.
Seguimento dun obxecto pegado ao ollo
[editar | editar a fonte]O primeiro tipo de rastrexador usa un accesorio para o ollo, como unha lente de contacto especial cun espello incorporado ou un sensor de campo magnético, e o movemento do accesorio mídese asumindo que non esvare significativamente mentres o ollo xira. As medicións con lentes de contacto axustadas proporcionaron gravacións extremadamente sensibles do movemento ocular, e as bobinas de busca magnética son o método de elección para os investigadores que estudan a dinámica e a fisioloxía subxacente do movemento ocular. Este método permite medir o movemento dos ollos en direccións horizontal, vertical e de torsión.[30]
Seguimento óptico (sen contacto có ollo)
[editar | editar a fonte]Este segundo tipo de rastrexadores usan algún método óptico sen contacto para medir o movemento dos ollos. A luz, normalmente infravermella, reflíctese desde o ollo e é detectada por unha cámara de vídeo ou algún outro sensor óptico deseñado especialmente. Despois analízase a información para extraer a rotación dos ollos a partir dos cambios nos reflexos. Os rastrexadores oculares baseados en vídeo normalmente usan o reflexo corneal (a primeira imaxe de Purkinje) e o centro da pupila como características para rastrexar ao longo do tempo. Un tipo de rastrexador ocular máis sensible, o rastrexador ocular dual de Purkinje,[31]usa os reflexos da parte frontal da córnea (primeira imaxe de Purkinje) e da parte traseira da lente (cuarta imaxe de Purkinje) como características para rastrexar. Un método de seguimento aínda máis sensible consiste en captar características do interior do ollo, como os vasos sanguíneos da retina, e seguir estas características mentres o ollo xira. Os métodos ópticos, en particular os baseados na gravación de vídeo, son amplamente utilizados para o seguimento da mirada e teñen a vantaxe de ser non-invasivos e económicos.
Medida do potencial eléctrico
[editar | editar a fonte]A terceira categoría de rastrexadores oculares utiliza potenciais eléctricos medidos con eléctrodos colocados arredor dos ollos. Os ollos son a orixe dun campo potencial eléctrico constante que tamén se pode detectar na escuridade total ou se os ollos están pechados. Pódese modelar para que sexa xerado por un dipolo, co seu polo positivo na córnea e o seu polo negativo na retina. O sinal eléctrico que se pode derivar usando dous pares de eléctrodos de contacto colocados na pel arredor dun ollo chámase Electrooculograma (EOG). Se os ollos móvense desde a posición central cara á periferia, a retina achégase a un eléctrodo mentres que a córnea achégase ao oposto. Este cambio na orientación do dipolo e, en consecuencia, o campo de potencial eléctrico, ten como resultado un cambio no sinal EOG medido. Inversamente, pódense seguir analizando estes cambios no movemento dos ollos. Debido á discretización dada pola configuración común do eléctrodo, pódense identificar dous compoñentes de movemento separados: un horizontal e outro vertical. Un terceiro compoñente do EOG é a canle EOG radial, que é a media das canles EOG referidas a algún eléctrodo posterior no coiro cabeludo.[32] Esta canle EOG radial é sensible aos potenciais de pico sacádico que se derivan dos músculos extraoculares no inicio das sacadas, e permite unha detección fiable incluso de sacadas en miniatura.[33]
Debido ás posibles derivas e ás relacións variables entre as amplitudes do sinal EOG e os tamaños de sacada, é un reto usar EOG para medir o movemento lento dos ollos e detectar a dirección da mirada. O EOG é, con todo, unha técnica moi robusta para medir os movementos sacádicos, asociados aos cambios de mirada, e detectar pestanexos. Ao contrario dos rastrexadores oculares baseados en vídeo, o EOG permite gravar os movementos dos ollos mesmo cos ollos pechados e, polo tanto, pódese usar na investigación do sono. É un enfoque moi simple que, a diferenza dos actuais rastrexadores oculares baseados en vídeo, require baixa potencia informática, funciona en diferentes condicións de iluminación e pódese implementar como un sistema portátil integrado e autónomo.[34][35] Polo tanto, é o método de elección para medir o movemento dos ollos en situacións de movemento da vida cotiá e en fases REM durante o sono. A principal desvantaxe de EOG é a súa relativamente pouca precisión na dirección da mirada en comparación cun rastrexador de vídeo. É dicir, é difícil determinar con boa precisión onde mira un suxeito, aínda que o tempo dos movementos dos ollos si que pode ser determinado.
Tecnoloxías e técnicas
[editar | editar a fonte]Os rastrexadores oculares máis utilizados actualmente están baseados no vídeo. Nestes, unha cámara enfoca un ou ámbolos dous ollos e rexistra os seus movementos mentres o espectador observa algún tipo de estímulo. A maioría dos rastrexadores oculares modernos usan o centro da pupila e luz infravermella/infravermella próxima non colimada para crear reflexos corneais (CR). O vector entre o centro da pupila e os reflexos corneais pode utilizarse para calcular o punto de vista na superficie ou a dirección da mirada. Normalmente é necesario un procedemento simple de calibración do individuo antes de usar o rastrexador ocular. [36]
Empréganse dous tipos xerais de técnicas de seguimento ocular por infravermellos/infravermellos próximos (tamén coñecidas como luz activa): pupila brillante e pupila escura. A súa diferenza baséase na localización da fonte de iluminación con respecto á óptica. Se a iluminación é coaxial co camiño óptico, entón o ollo actúa como un retroreflector xa que a luz reflíctese na retina creando un efecto de pupila brillante semellante ao ollo vermello. Se a fonte de iluminación é compensada dende o camiño óptico, entón a pupila aparece escura porque a retrorreflexión da retina diríxese fóra da cámara.[37]
O seguimento de pupila brillante crea un maior contraste iris/pupila, permitindo un rastrexamento ocular máis robusto con toda a pigmentación do iris, e reducindo moito a interferencia causada polas pestanas ou outras características de escurecemento.[38] Tamén permite o seguimento en condicións de iluminación que van desde a escuridade total ata o máximo brillo.
Outro método, menos utilizado, é o coñecido como luz pasiva. Utiliza luz visible para iluminar, algo que pode causar distracción aos usuarios.[34] Outro inconveniente con este método é que o contraste da pupila é menor que nos métodos de luz activa, polo tanto, o centro do iris úsase no seu lugar para calcular o vector.[39] Este cálculo precisa detectar o límite entre o iris e a esclerótica branca (seguimento do limbo). Tamén presenta outro desafío para os movementos oculares verticais debido á obstrución das pálpebras.[40]
-
Infravermello / Infravermello próximo: pupila brillante.
-
Infravermello / Infravermello próximo: pupila escura e reflexo corneal.
-
Luz visible: centro do iris (vermello), reflexo corneal (verde), e vector de saída (azul).
As configuracións de seguimento ocular varían moito. Algúns rastrexadores van montados na cabeza, outros requiren que a cabeza estea estable (por exemplo, cunha mentoneira) e outros funcionan de forma remota e rastrexan automaticamente a cabeza durante o movemento. A maioría usa unha frecuencia de mostraxe de polo menos 30 Hz. Aínda que 50/60 Hz é máis común, hoxe en día moitos rastrexadores oculares baseados en vídeo funcionan a 240, 350 ou incluso 1000/1250 Hz, velocidades necesarias para capturar os movementos oculares fixadores ou medir correctamente a dinámica de sacada.
Os movementos oculares divídense xeralmente en fixacións e sacadas: cando os ollos fan unha pausa nunha determinada posición e cando se moven a outra posición, respectivamente. A serie resultante de fixacións e sacadas chámase scanpath (traxectoria ou ruta de escaneado). O movemento de seguimento lento describe ao ollo seguindo un obxecto en movemento. Os movementos oculares de fixación inclúen microsacadas: pequenas sacadas involuntarias que se producen durante o intento de fixación. A maior parte da información do ollo está dispoñible durante unha fixación ou un seguimento lento, pero non durante unha sacada.[41]
Os scanpaths ou rutas de escaneado son útiles para analizar a intención cognitiva, o interese e a saliencia. Outros factores biolóxicos (algúns tan simples como o xénero) tamén poden afectar á ruta de escaneado. O seguimento ocular na interacción humano-computadora (IHC) adoita investigar o scanpath con fins de usabilidade ou como método de entrada en pantallas continxentes de mirada, tamén coñecidas como interfaces baseadas na mirada.[42]
Presentación de datos
[editar | editar a fonte]A interpretación dos datos rexistrados polos diferentes tipos de rastrexadores oculares emprega unha variedade de programas informáticos que os animan ou os representan visualmente, de xeito que se pode resumir graficamente o comportamento visual dun ou máis usuarios. O vídeo adoita codificarse manualmente para identificar as áreas de interese (AOI; areas of interest), aínda que, recentemente, tamén se usa a intelixencia artificial. A representación gráfica raramente é a base dos resultados da investigación, xa que estes están limitados en canto ao que pode ser analizado; a investigación que se basea no seguimento ocular, por exemplo, adoita requirir medidas cuantitativas dos eventos de movemento ocular e os seus parámetros. As seguintes visualizacións son as máis utilizadas:
Representacións animadas dun punto da interface: Este método utilízase cando se examina individualmente o comportamento visual indicando onde o usuario enfoca a súa mirada en cada momento, complementado cun pequeno trazado que indica os movementos sacádicos previos, tal e como se ve na imaxe.
Representacións estáticas da ruta de exploración sacádica: Este método é bastante semellante ao descrito anteriormente, coa diferenza de que se trata dun método estático. Requírese un nivel de coñecementos superior ao das representacións animadas para interpretalas.
Mapas de calor: Unha representación estática alternativa, utilizada principalmente para a análise aglomerada dos patróns de exploración visual nun grupo de usuarios. Nestas representacións, as zonas 'quentes' ou zonas con maior densidade designan onde os usuarios centraron a súa mirada (non a súa atención) con maior frecuencia. Os mapas térmicos son a técnica de visualización máis coñecida nos estudos de seguimento ocular.[43]
Mapas de zonas cegas, ou mapas de enfoque: Este método é unha versión simplificada dos mapas de calor onde se amosan claramente as zonas visualmente menos atendidas polos usuarios, permitindo así unha comprensión máis sinxela da información máis relevante; é dicir, ofrece máis información sobre as zonas que non foron vistas polos usuarios.
Mapas de saliencia: De xeito similar aos mapas de calor, un mapa de saliencia amosa as áreas de foco mostrando brillantemente os obxectos que chaman a atención sobre un lenzo inicialmente negro. Canto máis foco se lle dea a un obxecto concreto, máis brillante aparecerá.[44]
Seguimento ocular vs. seguimento da mirada
[editar | editar a fonte]Os rastrexadores oculares miden necesariamente a rotación do ollo con respecto a algún marco de referencia, que adoita estar ligado ao sistema de medición. Así, se o sistema de medición está montado na cabeza, como ocorre con EOG ou cos sistemas baseados en vídeo montados nun casco, entón mídense os ángulos do ollo con referencia á cabeza (eye-in-head). Para deducir a liña de visión en coordenadas mundiais, a cabeza debe manterse nunha posición constante ou tamén se deben seguir os seus movementos. Nestes casos, a dirección da cabeza engádese á dirección eye-in-head para determinar a dirección da mirada. Non obstante, se o movemento da cabeza é menor, o ollo permanece en posición constante.[45]
Se o sistema de medición está fixo nunha mesa, como ocorre coas bobinas de busca esclerótica ou os sistemas de cámara (remotas) montados en mesa, entón os ángulos de mirada mídense directamente en coordenadas mundiais. Normalmente, nestas situacións están prohibidos os movementos da cabeza. Por exemplo, a posición da cabeza está fixada mediante unha barra de mordida ou un soporte para a fronte. Entón, un marco de referencia centrado na cabeza é idéntico a un marco de referencia centrado no mundo. Ou coloquialmente, a posición do ollo na cabeza (eye-in-head) determina directamente a dirección da mirada.
Tamén temos resultados dispoñibles sobre movementos oculares humanos en condicións naturais, onde os movementos da cabeza están permitidos.[46] A posición relativa do ollo e da cabeza, aínda cunha dirección constante da mirada, inflúe na actividade neuronal das áreas visuais superiores.[47]
Práctica
[editar | editar a fonte]Realizouse unha gran cantidade de investigación no estudo dos mecanismos e dinámicas da rotación dos ollos, pero o obxectivo do seguimento ocular é, a maioría das veces, estimar a dirección da mirada. Os usuarios poden estar interesados en saber cales son as características dunha imaxe que chaman a atención, por exemplo. Os rastrexadores oculares non proporcionan a dirección absoluta da mirada, senón que só poden medir os cambios na dirección da mirada. Para determinar con precisión o que está mirando unha persoa, é necesario algún procedemento de calibración no que esa persoa mire un punto ou unha serie de puntos, mentres que o rastrexador ocular rexistra o valor que corresponde a cada posición da mirada. (Incluso aquelas técnicas que rastrexan as características da retina non poden proporcionar unha dirección exacta da mirada porque non hai ningunha característica anatómica específica que marque o punto exacto onde o eixe visual atópase coa retina, se é que, en realidade, existe un punto único e estable). Unha calibración precisa e fiable é esencial para obter datos de movementos oculares válidos e repetibles, e isto pode ser un desafío importante para o rexistro de persoas que non poden falar ou as que teñen unha mirada inestable.
Cada método de seguimento ocular ten vantaxes e inconvenientes, e a elección dun sistema de seguimento ocular depende de consideracións de custo e aplicación. Hai métodos sen conexión e procedementos en liña como Rastreo Atencional (AttentionTracking). Hai unha compensación entre custo e sensibilidade, xa que os sistemas máis sensibles custan moitas decenas de miles de dólares e requiren unha experiencia considerable para funcionar correctamente. Os avances na tecnoloxía informática e no vídeo levaron ao desenvolvemento de sistemas de custo relativamente baixo que son útiles para moitas aplicacións e bastante fáciles de usar.[48] Non obstante, a interpretación dos resultados aínda require certo nivel de experiencia, xa que un sistema mal aliñado ou mal calibrado pode producir datos totalmente erróneos.
Seguimento ocular durante a condución en situacións difíciles
[editar | editar a fonte]Os movementos oculares de dous grupos de condutores foi filmado cunha cámara de cabeza especial por un equipo do Instituto Federal Suízo de Tecnoloxía: condutores novatos e experimentados foron gravados cando se achegaban a unha curva dunha estrada estreita. Condensouse unha serie de imaxes a partir dos fotogramas orixinais da película para mostrar dúas fixacións dos ollos por imaxe para unha mellor comprensión.[50]
Cada unha destas imaxes corresponde, aproximadamente, a 0.5 segundos en tempo real.
A serie de imaxes mostra un exemplo de fixacións oculares, do número 9 ao número 14, dun novato típico e dun condutor experimentado.
A comparación das imaxes superiores mostra que o condutor experimentado revisa a curva e mesmo lle queda a fixación número 9 para mirar a un lado, mentres o condutor novato necesita revisar a estrada e estimar a súa distancia ata o coche estacionado.
Nas imaxes do medio, o condutor experimentado está agora totalmente concentrado no lugar onde se pode ver un coche que se aproxima. O condutor novato concentra a súa vista no coche estacionado.
Na imaxe inferior o novato está ocupado estimando a distancia entre a parede esquerda e o coche estacionado, mentres que o condutor experimentado pode usar a súa visión periférica para iso e aínda concentrar a visión no punto perigoso da curva: se aparece un coche alí, o condutor ten que ceder o paso; é dicir, parar á dereita en lugar de adiantar o coche aparcado.[51]
Estudos máis recentes tamén utilizan o seguimento ocular montado na cabeza para medir os movementos oculares durante condicións de condución no mundo real.[52][20]
Seguimento ocular do camiñar en persoas novas e maiores
[editar | editar a fonte]Mentres camiñan, os suxeitos de idade avanzada dependen máis da visión foveal que os máis novos. A súa velocidade de marcha diminúe por un campo visual limitado, probablemente causado por unha visión periférica deteriorada.
Os suxeitos máis novos fan uso tanto da súa visión central como da periférica mentres camiñan. A súa visión periférica permite un control máis rápido sobre o proceso de camiñar.[53]
Aplicacións
[editar | editar a fonte]Unha ampla variedade de disciplinas usan técnicas de seguimento ocular, incluíndo a ciencia cognitiva; a psicoloxía (en particular a psicolingüística; o paradigma do mundo visual); a interacción humano-computadora (IHC); os factores humanos e a ergonomía; a investigación de mercados e a investigación médica (diagnóstico neurolóxico).[54] As aplicacións específicas inclúen o seguimento dos movementos oculares na lectura da linguaxe, a lectura de música, o recoñecemento da actividade humana, a percepción da publicidade, a práctica de deportes, a detección de distraccións e a estimación da carga cognitiva de condutores e pilotos e como medio para manexar ordenadores por persoas con discapacidade motora grave.[20] No campo da realidade virtual, o seguimento ocular úsase en pantallas montadas na cabeza para unha variedade de propósitos, incluíndo reducir a carga de procesamento ao representar só a área gráfica dentro da mirada do usuario.[55]
Aplicacións comerciais
[editar | editar a fonte]Nos últimos anos, a maior sofisticación e accesibilidade das tecnoloxías de seguimento ocular xeraron un gran interese no sector comercial. As aplicacións inclúen usabilidade web, publicidade, patrocinio, deseño de paquetes e enxeñería automotriz. En xeral, os estudos comerciais de seguimento ocular funcionan presentando un estímulo obxectivo a unha mostra de consumidores mentres un rastrexador ocular rexistra a actividade dos ollos. Exemplos de estímulos obxectivo poden incluír sitios web, programas de televisión, eventos deportivos, películas e anuncios, revistas e xornais, paquetes, expositores, sistemas de consumo (caixeiros automáticos, sistemas de caixa, quioscos) e software. Os datos resultantes pódense analizar estatisticamente e renderizarse graficamente para proporcionar evidencia de patróns visuais específicos. Ao examinar as fixacións, as sacadas, a dilatación da pupila, os pestanexos e unha variedade de outros comportamentos, os investigadores poden determinar moito sobre a eficacia dun determinado medio ou produto. Aínda que algunhas empresas completan este tipo de investigación internamente, hai moitas empresas privadas que ofrecen servizos e análises de seguimento ocular.
Un campo de investigación comercial de seguimento ocular é a usabilidade web. Aínda que as técnicas de usabilidade tradicionais adoitan ser bastante poderosas para proporcionar información sobre os patróns de clic e de desprazamento (scrolling), o seguimento ocular ofrece a posibilidade de analizar a interacción do usuario entre os clics e o tempo que un usuario pasa entre os clics, proporcionando así unha valiosa información sobre cales son as características máis atractivas, cales causan confusión e cales se ignoran por completo. En concreto, o seguimento ocular pódese utilizar para avaliar a eficiencia da busca, a marca, os anuncios en liña, a usabilidade da navegación, o deseño xeral e moitos outros compoñentes do sitio. As análises poden dirixirse a un sitio prototipo ou competidor ademais do sitio do cliente principal.
O seguimento ocular úsase habitualmente nunha variedade de medios publicitarios diferentes. Os comerciais, os anuncios impresos, os anuncios en liña e os programas patrocinados son todos axeitados para a análise coa tecnoloxía actual de seguimento ocular. Un exemplo é a análise dos movementos oculares sobre os anuncios das Páxinas Amarelas. Un estudo centrouse en que funcións concretas facían que a xente prestase atención a un anuncio, se vían os anuncios nunha determinada orde e como variaban os tempos de visualización. O estudo revelou que o tamaño do anuncio, os gráficos, a cor e a copia inflúen na atención aos anuncios. Sabendo isto, os investigadores poden avaliar con gran detalle a frecuencia con que unha mostra de consumidores se fixa no logotipo, produto ou anuncio de destino. Polo tanto, un anunciante pode cuantificar o éxito dunha determinada campaña en termos de atención visual real.[56] Outro exemplo disto é un estudo que descubriu que nunha páxina de resultados de motores de busca, os fragmentos de autoría recibiron máis atención que os anuncios de pago ou mesmo que o primeiro resultado orgánico.[57]
Outro exemplo de investigación comercial de seguimento ocular provén do campo da selección de persoal. Un estudo analizou como os recrutadores examinan os perfís de LinkedIn e presentou os resultados como mapas de calor.[58]
Aplicacións de seguridade
[editar | editar a fonte]No 2017, uns científicos construíron unha Rede Neuronal Profunda Integrada (Deep Integrated Neural Network; DINN) a partir dunha Rede Neuronal Profunda e dunha rede neuronal convolucional.[21] O obxectivo era utilizar a aprendizaxe profunda (Deep Learning) para examinar imaxes de condutores e determinar o seu nivel de somnolencia, "clasificando os estados dos ollos". Con suficientes imaxes, a DINN proposta podería determinar idealmente cando pestanexan os condutores, con que frecuencia pestanexan e durante canto tempo. A partir de aí, podería xulgar o canso que parece estar un determinado condutor, realizando un exercicio de seguimento ocular. A DINN foi adestrada con datos de máis de 2.400 suxeitos e diagnosticou correctamente os seus estados entre o 96% e o 99,5% das veces. A maioría dos outros modelos de intelixencia artificial tiveron un rendemento superior ao 90%.[21] Esta tecnoloxía podería, idealmente, proporcionar outra vía para a detección da somnolencia do condutor.
Aplicacións da teoría de xogos
[editar | editar a fonte]Nun estudo de 2019, construíuse unha Rede Neuronal Convolucional (CNN) coa capacidade de identificar pezas individuais de xadrez, do mesmo xeito que outras CNN poden identificar as características faciais.[23] Despois alimentouse con datos de entrada de seguimento ocular de 30 xogadores de xadrez de varios niveis de habilidade. Con estes datos, a CNN utilizou a estimación da mirada para determinar as partes do taboleiro de xadrez ás que un xogador prestaba máis atención. Despois xerou un mapa de relevancia para resaltar esas partes do taboleiro. En definitiva, a CNN combinaría os seus coñecementos sobre o taboleiro e as pezas co seu mapa de relevancia para predicir o próximo movemento dos xogadores. Independentemente do conxunto de datos de adestramento no que se adestrase o sistema de rede neuronal, este predixo o seguinte movemento con máis precisión que se seleccionara calquera posible movemento aleatorio, e os mapas de relevancia debuxados para calquera xogador e situación tiñan unha similitude maior do 54%.[23]
As persoas con deficiencias motoras graves poden usar o seguimento ocular para interactuar cos ordenadores[59] xa que é máis rápido que as técnicas de exploración con interruptor único e é de uso intuitivo.[60][61] O deterioro motor causado pola Parálise Cerebral[62] ou a esclerose lateral amiotrófica adoita afectar á fala, e os usuarios con Discapacidade Severa Motora e da Fala (SSMI, polas súas siglas en inglés) usan un tipo de software coñecido como Axuda de Comunicación Aumentativa e Alternativa (CAA),[63] que mostra iconas, palabras e letras na pantalla[64] e usa un software de conversión de texto a voz para xerar saídas faladas.[65] Nos últimos tempos, os investigadores tamén exploraron o seguimento ocular para controlar os brazos robóticos[66] e as cadeiras de rodas eléctricas.[67] O seguimento ocular tamén é útil para analizar patróns de busca visual,[68] detectar a presenza de Nistagmo e detectar os primeiros signos de discapacidade de aprendizaxe analizando o movemento da mirada durante a lectura.[69]
Aplicacións na aviación
[editar | editar a fonte]O seguimento ocular xa foi estudado no campo da seguridade aérea comparando as rutas de escaneado e a duración das fixacións para avaliar o progreso dos pilotos en prácticas,[70] para estimar as habilidades dos pilotos,[71] e para analizar a conciencia situacional compartida. [72] Tamén se explorou a tecnoloxía de seguimento ocular para interactuar con sistemas de visualización montados en casco[73] e pantallas multifuncionais [74] en aviación militar: Realizáronse estudos para investigar a utilidade do seguimento ocular para o bloqueo e adquisición de obxectivos a través dunha pantalla virtual integrada no casco (Helmet Mounted Display; HMD).[70] Os comentarios dos pilotos suxiren que aínda que a tecnoloxía é prometedora, os seus compoñentes de hardware e software aínda están por madurar [70] A investigación sobre a interacción con pantallas multifuncionais en ambientes de simulación demostrou que o seguimento ocular pode mellorar significativamente os tempos de resposta e a carga cognitiva percibida sobre os sistemas existentes. Ademais, tamén se investigou a utilización de medidas de fixación e resposta pupilar para estimar a carga cognitiva do piloto. A estimación da carga cognitiva pode axudar a deseñar cabinas adaptativas de próxima xeración cunha seguridade de voo mellorada[75] O seguimento ocular tamén é útil para detectar a fatiga do piloto.[76][20]
Aplicacións automobilísticas
[editar | editar a fonte]Nos últimos tempos, a tecnoloxía de seguimento ocular está a investigar no dominio do automóbil de forma activa e pasiva. A National Highway Traffic Safety Administration (Administración de Seguridade do Tráfico en EE.UU.) mediu a duración da ollada para realizar tarefas secundarias mentres se conduce e utilizouno para promover a seguridade desalentando a introdución de dispositivos que causan excesivas distraccións nos vehículos.[77] Ademais da detección de distraccións, o seguimento ocular tamén se usa para interactuar con IVIS (In-vehicle Infotainment Systems: sistemas de infoentretenemento dentro do vehículo).[78] Aínda que a investigación inicial [79] estudou a eficacia do sistema de seguimento ocular para a interacción co HDD (Head Down Display), este esixía que os condutores apartasen a vista da estrada mentres realizaban unha tarefa secundaria.[80] Estudos recentes investigaron a interacción controlada da mirada co HUD (Head Up Display) que elimina a distracción dos ollos fóra da estrada. O seguimento ocular tamén se usa para controlar a carga cognitiva dos condutores e detectar posibles distraccións. Aínda que os investigadores[81] exploraron diferentes métodos para estimar a carga cognitiva dos condutores a partir de diferentes parámetros fisiolóxicos, o uso de parámetros oculares abriu unha nova forma de usar o seguimento ocular para supervisar a carga cognitiva dos condutores ademais da interacción co IVIS.[82][83]
Aplicacións de entretemento
[editar | editar a fonte]O videoxogo Before Your Eyes de 2021 rexistra e le o pestanexo do xogador e utilízao como a principal forma de interactuar co xogo.[84][85]
Aplicacións de enxeñaría
[editar | editar a fonte]O uso xeneralizado da tecnoloxía de seguimento ocular botou luz sobre o seu uso na enxeñaría empírica de software nos últimos anos. A tecnoloxía de seguimento ocular e as técnicas de análise de datos úsanse para investigar a comprensibilidade dos conceptos de enxeñaría de software polos investigadores. Estes inclúen a comprensibilidade dos modelos de procesos de negocio,[86] e diagramas utilizados en enxeñaría de software como diagramas de fluxo UML e diagramas EER (modelo entidade-relación).[87] Os índices de medida do seguimento ocular, como a fixación, a ruta de escaneo, a precisión e o recordo da ruta de escaneo, ou as fixacións na área de interese/rexión relevante, son calculadas, analizadas e interpretadas en termos de comprensión do modelo e do diagrama. Os achados úsanse para mellorar a comprensión dos diagramas e modelos con solucións adecuadas, relacionadas co modelo, e mellorar factores persoais relacionados, como a capacidade de memoria de traballo, a carga cognitiva, o estilo de aprendizaxe e a estratexia dos enxeñeiros de software e modeladores.
Aplicacións cartográficas
[editar | editar a fonte]A investigación cartográfica adoptou amplamente as técnicas de seguimento ocular. Os investigadores utilízanas para ver como os individuos perciben e interpretan os mapas.[88] Por exemplo, o seguimento ocular utilizouse para estudar as diferenzas na percepción da visualización 2D e 3D, [89][90] para a comparación de estratexias de lectura de mapas entre novatos e expertos[91] ou entre estudantes e os seus profesores de xeografía,[92] e para a avaliación da calidade cartográfica dos mapas.[93] Ademais, os cartógrafos empregaron o seguimento ocular para investigar varios factores que afectan á lectura de mapas, incluíndo atributos como a cor ou a densidade de símbolos.[94][95] Numerosos estudos sobre a usabilidade das aplicacións de mapas tamén aproveitaron o seguimento ocular.[96][97]
O compromiso diario da comunidade cartográfica cos datos visuais e espaciais levou a contribuír de forma significativa nos métodos e ferramentas de visualización de datos de seguimento ocular.[98] Por exemplo, os cartógrafos desenvolveron métodos para integrar os datos de seguimento ocular con SIX ( GIS en inglés) utilizando software SIX para visualización e análise posterior deses datos.[99][100] A comunidade tamén ofreceu ferramentas para visualizar datos de seguimento ocular[101]ou unha caixa de ferramentas para a identificación de fixacións oculares baseada nun compoñente espacial dos datos de seguimento ocular.[102]
Co seguimento ocular proxectado para converterse nunha característica común en varios produtos electrónicos de consumo, incluíndo teléfonos intelixentes,[103] portátiles[104] e dispositivos de realidade virtual, [105][106] xorde a preocupación sobre o impacto da tecnoloxía na privacidade do consumidor.[107][108] Coa axuda de técnicas de aprendizaxe automática (en inglés: machine learning), os datos de seguimento ocular poden revelar indirectamente información sobre a etnia, os trazos de personalidade, os medos, as emocións, os intereses, as habilidades e o estado de saúde física e mental dun usuario.[109] Se tales inferencias se extraen sen o coñecemento ou a aprobación do usuario, isto pódese clasificar como un ataque de inferencia. As actividades oculares non sempre están baixo control voluntario, por exemplo, "miradas impulsadas por estímulos, dilatación da pupila, tremor ocular e pestanexos espontáneos ocorren na súa maioría sen esforzo consciente, de xeito similar á dixestión e á respiración".[106] Polo tanto, pode ser difícil para os usuarios de seguimento ocular estimar ou controlar a cantidade de información que revelan sobre eles mesmos.
Notas
[editar | editar a fonte]- ↑ Reported in Huey & 1908/1968
- ↑ Huey, Edmund (1968 [originally published 1908].). The Psychology and Pedagogy of Reading (Reprint ed.). MIT Press. ISBN 978-0262580106.
- ↑ Buswell, G.T. (1922). "Fundamental reading habits: a study of their development". Supplementary Educational Monographs. No. 21. Chicago: University of Chicago.
- ↑ Buswell, G.T. (1937)."How adults read". Supplementary Educational Monographs. No. 45. Chicago: University of Chicago.
- ↑ Buswell, G.T. (1935), How people look at pictures: a study of the psychology and perception in art, University of Chicago Press, Trove 12223957
- ↑ Yarbus, Alfred L. (1967). Eye movements and vision (PDF). New York: Plenum Press. ISBN 978-1-4899-5379-7. Consultado o 24 March 2022.
- ↑ Yarbus, Alfred L. (1967). Eye movements and vision (PDF). New York: Plenum Press. ISBN 978-1-4899-5379-7. p 190-193
- ↑ 8,0 8,1 Yarbus 1967, p. 190
- ↑ Yarbus 1967, p. 191
- ↑ Yarbus 1967, p. 193
- ↑ "Visual Perception: Eye Movements in Problem Solving.". www.learning-systems.ch.
- ↑ [1] Arquivado 2011-07-06 en Wayback Machine.
- ↑ Rayner, K (1978). "Eye movements in reading and information processing". Psychological Bulletin. 85 (3): 618–660. CiteSeerX 10.1.1.294.4262. doi:10.1037/0033-2909.85.3.618. PMID 353867.
- ↑ Just, MA; Carpenter, PA (1980). "A theory of reading: from eye fixation to comprehension" (PDF). Psychol Rev. 87 (4): 329–354. doi:10.1037/0033-295x.87.4.329. PMID 7413885. S2CID 3793521.
- ↑ Posner, Michael I. (1980). "Orienting of Attention". Quarterly Journal of Experimental Psychology (SAGE Publications) 32 (1): 3–25. ISSN 0033-555X. PMID 7367577. doi:10.1080/00335558008248231. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Wright, R.D.; Ward, L.M. (2008). Orienting of Attention. Oxford University Press. ISBN 978-0-19-802997-7.
- ↑ Robert J. K. Jacob; Keith S. Karn (2003). "Eye Tracking in Human–Computer Interaction and Usability Research: Ready to Deliver the Promises". En Hyona; Radach; Deubel. The Mind's Eye: Cognitive and Applied Aspects of Eye Movement Research. Oxford, England: Elsevier Science BV. ISBN 0-444-51020-6. Parámetro descoñecido
|chapter-url-access=
ignorado (Axuda); Parámetro descoñecido|citeseerx=
ignorado (Axuda) - ↑ Schiessl, Michael; Duda, Sabrina; Thölke, Andreas; Fischer, Rico. "Eye tracking and its application in usability and media research" (PDF).
- ↑ Hoffman, James E. (2016). "Visual attention and eye movements". En Pashler, H. Attention. Studies in Cognition. Taylor & Francis. pp. 119–153. ISBN 978-1-317-71549-8.
- ↑ Deubel, Heiner (1996). "Saccade target selection and object recognition: Evidence for a common attentional mechanism". Vision Research 36 (12): 1827–1837. PMID 8759451. doi:10.1016/0042-6989(95)00294-4. Parámetro descoñecido
|s2cid=
ignorado (Axuda); Parámetro descoñecido|doi-access=
ignorado (Axuda) - ↑ Holsanova, Jana (2007). "Användares interaktion med multimodala texter" [User interaction with multimodal texts]. En L. Gunnarsson; A.-M. Karlsson. Ett vidgat textbegrepp (en sueco). pp. 41–58.
- ↑ Cognolato M, Atzori M, Müller H (2018). "Head-mounted eye gaze tracking devices: An overview of modern devices and recent advances.". Journal of Rehabilitation and Assistive Technologies Engineering 5: 205566831877399. PMC 6453044. PMID 31191938. doi:10.1177/2055668318773991.
- ↑ Alexander, Robert; Macknik, Stephen; Martinez-Conde, Susana (2020). "Microsaccades in applied environments: Real-world applications of fixational eye movement measurements". Journal of Eye Movement Research 12 (6). PMC 7962687. PMID 33828760. doi:10.16910/jemr.12.6.15. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Zhao, Lei; Wang, Zengcai; Zhang, Guoxin; Qi, Yazhou; Wang, Xiaojin (15 November 2017). "Eye state recognition based on deep integrated neural network and transfer learning". Multimedia Tools and Applications 77 (15): 19415–19438. ISSN 1380-7501. doi:10.1007/s11042-017-5380-8. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Stember, J. N.; Celik, H.; Krupinski, E.; Chang, P. D.; Mutasa, S.; Wood, B. J.; Lignelli, A.; Moonis, G.; Schwartz, L. H.; Jambawalikar, S.; Bagci, U. (August 2019). "Eye Tracking for Deep Learning Segmentation Using Convolutional Neural Networks". Journal of Digital Imaging (en inglés) 32 (4): 597–604. ISSN 0897-1889. PMC 6646645. PMID 31044392. doi:10.1007/s10278-019-00220-4.
- ↑ Louedec, Justin Le; Guntz, Thomas; Crowley, James L.; Vaufreydaz, Dominique (2019). "Deep learning investigation for chess player attention prediction using eye-tracking and game data". Proceedings of the 11th ACM Symposium on Eye Tracking Research & Applications. New York, New York, USA: ACM Press. pp. 1–9. Bibcode:2019arXiv190408155L. ISBN 978-1-4503-6709-7. arXiv:1904.08155. doi:10.1145/3314111.3319827. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Nadu, T (2015). "A review: Towards quality improvement in real time eye-tracking and gaze detection". International Journal of Applied Engineering Research 10 (6).
- ↑ Nückles, M (2021). "Investigating visual perception in teaching and learning with advanced eye-tracking methodologies: Rewards and challenges of an innovative research paradigm". Educational Psychology Review 33 (1): 149–167. doi:10.1007/s10648-020-09567-5. Parámetro descoñecido
|s2cid=
ignorado (Axuda); Parámetro descoñecido|doi-access=
ignorado (Axuda) - ↑ Alexander, RG; Waite, S; Macknik, SL; Martinez-Conde, S (2020). "What do radiologists look for? Advances and limitations of perceptual learning in radiologic search.". Journal of Vision 20 (10): 17. PMC 7571277. PMID 33057623. doi:10.1167/jov.20.10.17.
- ↑ Robinson, David A. (October 1963). "A Method of Measuring Eye Movemnent Using a Scieral Search Coil in a Magnetic Field". IEEE Transactions on Bio-medical Electronics (Institute of Electrical and Electronics Engineers) 10 (4): 137–145. ISSN 0096-0616. PMID 14121113. doi:10.1109/tbmel.1963.4322822.
- ↑ Crane, H.D.; Steele, C.M. (1985). "Generation-V dual-Purkinje-image eyetracker". Applied Optics 24 (4): 527–537. Bibcode:1985ApOpt..24..527C. PMID 18216982. doi:10.1364/AO.24.000527. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Elbert, T., Lutzenberger, W., Rockstroh, B., Birbaumer, N., 1985. Removal of ocular artifacts from the EEG. A biophysical approach to the EOG. Electroencephalogr Clin Neurophysiol 60, 455-463.
- ↑ Keren, A.S.; Yuval-Greenberg, S.; Deouell, L.Y. (2010). "Saccadic spike potentials in gamma-band EEG: Characterization, detection and suppression". NeuroImage 49 (3): 2248–2263. PMID 19874901. doi:10.1016/j.neuroimage.2009.10.057. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Bulling, A.; Roggen, D.; Tröster, G. (2009). "Wearable EOG goggles: Seamless sensing and context-awareness in everyday environments". Journal of Ambient Intelligence and Smart Environments 1 (2): 157–171. doi:10.3233/AIS-2009-0020. hdl:20.500.11850/352886. Parámetro descoñecido
|s2cid=
ignorado (Axuda); Parámetro descoñecido|hdl-access=
ignorado (Axuda) - ↑ Sopic, D., Aminifar, A., & Atienza, D. (2018). e-glass: A wearable system for real-time detection of epileptic seizures. In IEEE International Symposium on Circuits and Systems (ISCAS).
- ↑ Witzner Hansen, Dan; Qiang Ji (March 2010). "In the Eye of the Beholder: A Survey of Models for Eyes and Gaze". IEEE Trans. Pattern Anal. Mach. Intell. 32 (3): 478–500. PMID 20075473. doi:10.1109/tpami.2009.30. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Gneo, Massimo; Schmid, Maurizio; Conforto, Silvia; D’Alessio, Tommaso (2012). "A free geometry model-independent neural eye-gaze tracking system". Journal of NeuroEngineering and Rehabilitation 9 (1): 82. PMC 3543256. PMID 23158726. doi:10.1186/1743-0003-9-82. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ The Eye: A Survey of Human Vision; Wikimedia Foundation
- ↑ Sigut, J; Sidha, SA (February 2011). "Iris center corneal reflection method for gaze tracking using visible light.". IEEE Transactions on Bio-Medical Engineering 58 (2): 411–9. PMID 20952326. doi:10.1109/tbme.2010.2087330. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Hua, H; Krishnaswamy, P; Rolland, JP (15 May 2006). "Video-based eyetracking methods and algorithms in head-mounted displays.". Optics Express 14 (10): 4328–50. Bibcode:2006OExpr..14.4328H. PMID 19516585. doi:10.1364/oe.14.004328. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Purves, D; et al. (2001). "What Eye Movements Accomplish". Neuroscience (2nd ed.). Sunderland, MA: Sinauer Assocs.
- ↑ Majaranta, P., Aoki, H., Donegan, M., Hansen, D.W., Hansen, J.P., Hyrskykari, A., Räihä, K.J., Gaze Interaction and Applications of Eye Tracking: Advances in Assistive Technologies, IGI Global, 2011
- ↑ Nielsen, J.; Pernice, K. (2010). Eyetracking Web Usability. New Rideres Publishing. p. 11. ISBN 978-0-321-71407-7. Consultado o 28 October 2013.
- ↑ Le Meur, O; Baccino, T (2013). "Methods for comparing scanpaths and saliency maps: strengths and weaknesses". Behavior Research Methods 45 (1).
- ↑ Aharonson V, Coopoo V, Govender K, Postema M (2020). "Automatic pupil detection and gaze estimation using the vestibulo-ocular reflex in a low-cost eye-tracking setup". SAIEE Africa Research Journal 111 (3): 120–124. doi:10.23919/SAIEE.2020.9142605. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Einhäuser, W; Schumann, F; Bardins, S; Bartl, K; Böning, G; Schneider, E; König, P (2007). "Human eye-head co-ordination in natural exploration". Network: Computation in Neural Systems 18 (3): 267–297. PMID 17926195. doi:10.1080/09548980701671094. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Andersen, R. A.; Bracewell, R. M.; Barash, S.; Gnadt, J. W.; Fogassi, L. (1990). "Eye position effects on visual, memory, and saccade-related activity in areas LIP and 7a of macaque". Journal of Neuroscience 10 (4): 1176–1196. PMC 6570201. PMID 2329374. doi:10.1523/JNEUROSCI.10-04-01176.1990. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Ferhat, Onur; Vilariño, Fernando (2016). "Low Cost Eye Tracking: The Current Panorama". Computational Intelligence and Neuroscience 2016: 1–14. PMC 4808529. PMID 27034653. doi:10.1155/2016/8680541. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Hunziker 2006. Based on data from: Cohen, A. S. (1983). Informationsaufnahme beim Befahren von Kurven, Psychologie für die Praxis 2/83, Bulletin der Schweizerischen Stiftung für Angewandte Psychologie.
- ↑ Cohen, A. S. (1983). Informationsaufnahme beim Befahren von Kurven, Psychologie für die Praxis 2/83, Bulletin der Schweizerischen Stiftung für Angewandte Psychologie
- ↑ Pictures from Hunziker 2006
- ↑ Grüner, M; Ansorge, U (2017). "Mobile eye tracking during real-world night driving: A selective review of findings and recommendations for future research". Journal of Eye Movement Research 10 (2). PMC 7141062. PMID 33828651. doi:10.16910/JEMR.10.2.1. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Itoh, Nana; Fukuda, Tadahiko (2002). "Comparative Study of Eye Movements in Extent of Central and Peripheral Vision and Use by Young and Elderly Walkers". Perceptual and Motor Skills 94 (3_suppl): 1283–1291. PMID 12186250. doi:10.2466/pms.2002.94.3c.1283. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Duchowski, A. T. (2002). "A breadth-first survey of eye-tracking applications". Behavior Research Methods, Instruments, & Computers 34 (4): 455–470. PMID 12564550. doi:10.3758/BF03195475. Parámetro descoñecido
|s2cid=
ignorado (Axuda); Parámetro descoñecido|doi-access=
ignorado (Axuda) - ↑ Rogers, Sol. "Seven Reasons Why Eye-tracking Will Fundamentally Change VR". Forbes (en inglés). Consultado o 2021-12-16.
- ↑ Lohse, Gerald; Wu, D. J. (1 February 2001). "Eye Movement Patterns on Chinese Yellow Pages Advertising". Electronic Markets 11 (2): 87–96. doi:10.1080/101967801300197007. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ "Eye Tracking Study: The Importance of Using Google Authorship in Search Results"
- ↑ "3 seconds is enough to screen candidate's profile. Eye tracking research results.". Element's Blog - nowości ze świata rekrutacji, HR Tech i Element (en polaco). 2019-02-21. Consultado o 2021-04-03.
- ↑ Corno, F.; Farinetti, L.; Signorile, I. (August 2002). "A cost-effective solution for eye-gaze assistive technology". Proceedings. IEEE International Conference on Multimedia and Expo 2. pp. 433–436. ISBN 0-7803-7304-9. doi:10.1109/ICME.2002.1035632. Consultado o 5 August 2020. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Pinheiro, C.; Naves, E. L.; Pino, P.; Lesson, E.; Andrade, A.O.; Bourhis, G. (July 2011). "Alternative communication systems for people with severe motor disabilities: a survey". BioMedical Engineering OnLine 10 (1): 31. PMC 3103465. PMID 21507236. doi:10.1186/1475-925X-10-31. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Saunders, M.D.; Smagner, J.P.; Saunders, R.R. (August 2003). "Improving methodological and technological analyses of adaptive switch use of individuals with profound multiple impairments". Behavioral Interventions 18 (4): 227–243. doi:10.1002/bin.141.
- ↑ "Cerebral Palsy (CP)". Consultado o 4 August 2020.
- ↑ Wilkinson, K.M.; Mitchell, T. (March 2014). "Eye tracking research to answer questions about augmentative and alternative communication assessment and intervention". Augmentative and Alternative Communication 30 (2): 106–119. PMC 4327869. PMID 24758526. doi:10.3109/07434618.2014.904435.
- ↑ Galante, A.; Menezes, P. (June 2012). "A gaze-based interaction system for people with cerebral palsy". Procedia Technology 5: 895–902. doi:10.1016/j.protcy.2012.09.099. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ BLISCHAK, D.; LOMBARDINO, L.; DYSON, A. (June 2003). "Use of speech-generating devices: In support of natural speech". Augmentative and Alternative Communication 19 (1): 29–35. PMID 28443791. doi:10.1080/0743461032000056478. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Sharma, V.K.; Murthy, L. R. D.; Singh Saluja, K.; Mollyn, V.; Sharma, G.; Biswas, Pradipta (August 2020). "Webcam controlled robotic arm for persons with SSMI". Technology and Disability 32 (3): 179–197. arXiv:2005.11994. doi:10.3233/TAD-200264. Consultado o 5 August 2020. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Eid, M.A.; Giakoumidis, N.; El Saddik, A. (July 2016). "A novel eye-gaze-controlled wheelchair system for navigating unknown environments: case study with a person with ALS". IEEE Access 4: 558–573. Bibcode:2016IEEEA...4..558E. doi:10.1109/ACCESS.2016.2520093. Parámetro descoñecido
|doi-access=
ignorado (Axuda); Parámetro descoñecido|s2cid=
ignorado (Axuda) - ↑ Jeevithashree, D. V.; Saluja, K.S.; Biswas, Pradipta (December 2019). "A case study of developing gaze-controlled interface for users with severe speech and motor impairment". Technology and Disability 31 (1–2): 63–76. doi:10.3233/TAD-180206. Consultado o 5 August 2020. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Jones, M.W.; Obregón, M.; Kelly, M.L.; Branigan, H.P. (May 2008). "Elucidating the component processes involved in dyslexic and non-dyslexic reading fluency: An eye-tracking study". Cognition 109 (3): 389–407. PMID 19019349. doi:10.1016/j.cognition.2008.10.005. Consultado o 5 August 2020. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Calhoun, G. L; Janson (1991). "Eye line-of-sight control compared to manual selection of discrete switches". Armstrong Laboratory Report AL-TR-1991-0015.
- ↑ Fitts, P.M.; Jones, R.E.; Milton, J.L (1950). "Eye movements of aircraft pilots during instrument-landing approaches". Aeronaut. Eng. Rev. Consultado o 20 July 2020.
- ↑ Peysakhovich, V.; Lefrançois, O.; Dehais, F.; Causse, M. (2018). "The neuroergonomics of aircraft cockpits: the four stages of eye-tracking integration to enhance flight safety.". Safety 4 (1): 8. doi:10.3390/safety4010008. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ de Reus, A.J.C.; Zon, R.; Ouwerkerk, R. (November 2012). "Exploring the use of an eye tracker in a helmet mounted display". National Aerospace Laboratory Technical Report NLR-TP-2012-001.
- ↑ DV, JeevithaShree; Murthy, L R.D.; Saluja, K. S.; Biswas, P. (2018). "Operating different displays in military fast jets using eye gaze tracker". Journal of Aviation Technology and Engineering 8 (4). Consultado o 24 July 2020.
- ↑ Babu, M.; D V, JeevithaShree; Prabhakar, G.; Saluja, K.P.; Pashilkar, A.; Biswas, P. (2019). "Estimating pilots' cognitive load from ocular parameters through simulation and in-flight studies". Journal of Eye Movement Research 12 (3). PMC 7880144. PMID 33828735. doi:10.16910/jemr.12.3.3. Consultado o 3 August 2020.
- ↑ Peißl, S.; Wickens, C. D.; Baruah, R. (2018). "Eye-tracking measures in aviation: A selective literature review". The International Journal of Aerospace Psychology 28 (3–4): 98–112. doi:10.1080/24721840.2018.1514978. Parámetro descoñecido
|doi-access=
ignorado (Axuda); Parámetro descoñecido|s2cid=
ignorado (Axuda) - ↑ "Visual-Manual NHTSA Driver Distraction Guidelines for In-Vehicle Electronic Devices". 26 April 2013.
- ↑ Modelo:Cite patent
- ↑ Poitschke, T.; Laquai, F.; Stamboliev, S.; Rigoll, G. (2011). "Gaze-based interaction on multiple displays in an automotive environment" (PDF). 2011 IEEE International Conference on Systems, Man, and Cybernetics. pp. 543–548. ISBN 978-1-4577-0653-0. ISSN 1062-922X. doi:10.1109/ICSMC.2011.6083740. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Prabhakar, G.; Ramakrishnan, A.; Murthy, L.; Sharma, V.K.; Madan, M.; Deshmukh, S.; Biswas, P. (2020). "Interactive Gaze & Finger controlled HUD for Cars". Journal of Multimodal User Interface 14: 101–121. doi:10.1007/s12193-019-00316-9. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Marshall, S. (2002). "The Index of Cognitive Activity: Measuring cognitive workload". Proceedings of the IEEE 7th Conference on Human Factors and Power Plants. pp. 7–5–7–9. ISBN 0-7803-7450-9. doi:10.1109/HFPP.2002.1042860. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Duchowski, A. T.; Biele, C.; Niedzielska, A.; Krejtz, K.; Krejtz, I.; Kiefer, P.; Raubal, M.; Giannopoulos, I. (2018). "The Index of Pupillary Activity Measuring Cognitive Load vis-à-vis Task Difficulty with Pupil Oscillation". ACM SIGCHI Conference on Human Factors. doi:10.1145/3173574.3173856. Parámetro descoñecido
|doi-access=
ignorado (Axuda); Parámetro descoñecido|s2cid=
ignorado (Axuda) - ↑ Prabhakar, G.; Mukhopadhyay, A.; Murthy, L.; Modiksha, M. A. D. A. N.; Biswas, P. (2020). "Cognitive load estimation using Ocular Parameters in Automotive". Transportation Engineering 2: 100008. doi:10.1016/j.treng.2020.100008. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ McGuire, Keegan (2021-04-08). "What The Critics Are Saying About Before Your Eyes". looper.com. Arquivado dende o orixinal o 2021-04-23. Parámetro descoñecido
|url-status=
ignorado (Axuda) - ↑ von Au, Caspar (2021-04-24). "Computerspiel "Before Your Eyes" wird mit den Augen gesteuert" [Video game "Before Your Eyes" is controlled with your eyes]. Bayerischer Rundfunk (en alemán). Arquivado dende o orixinal o 2021-04-26. Parámetro descoñecido
|url-status=
ignorado (Axuda) - ↑ Petrusel, Razvan; Mendling, Jan; Reijers, Hajo A. (2017). "How visual cognition influences process model comprehension". Decision Support Systems (en English) C (96): 1–16. ISSN 0167-9236. doi:10.1016/j.dss.2017.01.005.
- ↑ Sözen, Nergiz; Say, Bilge; Kılıç, Özkan (27 November 2020). "An Experimental Study Towards Investigating the Effect of Working Memory Capacity on Complex Diagram Understandability". TEM Journal (Association for Information Communication Technology Education and Science): 1384–1395. ISSN 2217-8333. doi:10.18421/tem94-09. Parámetro descoñecido
|s2cid=
ignorado (Axuda); Parámetro descoñecido|doi-access=
ignorado (Axuda) - ↑ Krassanakis, Vassilios; Cybulski, Paweł (2021-06-14). "Eye Tracking Research in Cartography: Looking into the Future". ISPRS International Journal of Geo-Information (en inglés) 10 (6): 411. Bibcode:2021IJGI...10..411K. ISSN 2220-9964. doi:10.3390/ijgi10060411. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Popelka, Stanislav; Brychtova, Alzbeta (2013). "Eye-tracking Study on Different Perception of 2D and 3D Terrain Visualisation". The Cartographic Journal (en inglés) 50 (3): 240–246. Bibcode:2013CartJ..50..240P. ISSN 0008-7041. doi:10.1179/1743277413Y.0000000058. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Herman, Lukas; Popelka, Stanislav; Hejlova, Vendula (2017-05-31). "Eye-tracking Analysis of Interactive 3D Geovisualization". Journal of Eye Movement Research 10 (3). ISSN 1995-8692. PMC 7141050. PMID 33828655. doi:10.16910/jemr.10.3.2.
- ↑ Ooms, K.; De Maeyer, P.; Fack, V. (2013-11-22). "Study of the attentive behavior of novice and expert map users using eye tracking". Cartography and Geographic Information Science 41 (1): 37–54. ISSN 1523-0406. doi:10.1080/15230406.2013.860255. hdl:1854/LU-4252541. Parámetro descoñecido
|hdl-access=
ignorado (Axuda); Parámetro descoñecido|s2cid=
ignorado (Axuda) - ↑ Beitlova, Marketa; Popelka, Stanislav; Vozenilek, Vit (2020-08-19). "Differences in Thematic Map Reading by Students and Their Geography Teacher". ISPRS International Journal of Geo-Information 9 (9): 492. Bibcode:2020IJGI....9..492B. ISSN 2220-9964. doi:10.3390/ijgi9090492. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Burian, Jaroslav; Popelka, Stanislav; Beitlova, Marketa (2018-05-17). "Evaluation of the Cartographical Quality of Urban Plans by Eye-Tracking". ISPRS International Journal of Geo-Information 7 (5): 192. Bibcode:2018IJGI....7..192B. ISSN 2220-9964. doi:10.3390/ijgi7050192. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Brychtova, Alzbeta; Coltekin, Arzu (2016-06-30). "An Empirical User Study for Measuring the Influence of Colour Distance and Font Size in Map Reading Using Eye Tracking". The Cartographic Journal 53 (3): 202–212. Bibcode:2016CartJ..53..202B. ISSN 0008-7041. doi:10.1179/1743277414y.0000000103. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Cybulski, Paweł (2020-01-09). "Spatial distance and cartographic background complexity in graduated point symbol map-reading task". Cartography and Geographic Information Science 47 (3): 244–260. Bibcode:2020CGISc..47..244C. ISSN 1523-0406. doi:10.1080/15230406.2019.1702102. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Manson, Steven M.; Kne, Len; Dyke, Kevin R.; Shannon, Jerry; Eria, Sami (2012). "Using Eye-tracking and Mouse Metrics to Test Usability of Web Mapping Navigation". Cartography and Geographic Information Science 39 (1): 48–60. Bibcode:2012CGISc..39...48M. ISSN 1523-0406. doi:10.1559/1523040639148. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Popelka, Stanislav; Vondrakova, Alena; Hujnakova, Petra (2019-05-30). "Eye-tracking Evaluation of Weather Web Maps". ISPRS International Journal of Geo-Information 8 (6): 256. Bibcode:2019IJGI....8..256P. ISSN 2220-9964. doi:10.3390/ijgi8060256. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Vojtechovska, Michaela; Popelka, Stanislav (2023-08-12). "GazePlotter – tool for eye movement sequences visualization". Abstracts of the ICA 6: 264–. Bibcode:2023AbICA...6..264V. ISSN 2570-2106. doi:10.5194/ica-abs-6-264-2023. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Sultan, Minha Noor; Popelka, Stanislav; Strobl, Josef (2022-06-24). "ET2Spatial – software for georeferencing of eye movement data". Earth Science Informatics 15 (3): 2031–2049. Bibcode:2022EScIn..15.2031S. ISSN 1865-0473. doi:10.1007/s12145-022-00832-5. Parámetro descoñecido
|s2cid=
ignorado (Axuda) - ↑ Göbel, Fabian; Kiefer, Peter; Raubal, Martin (2019-05-02). "Correction to: FeaturEyeTrack: automatic matching of eye tracking data with map features on interactive maps". GeoInformatica 24 (4): 1061–1062. ISSN 1384-6175. doi:10.1007/s10707-019-00352-3. Parámetro descoñecido
|doi-access=
ignorado (Axuda); Parámetro descoñecido|s2cid=
ignorado (Axuda) - ↑ Dolezalova, Jitka; Popelka, Stanislav (2016-08-05). "ScanGraph: A Novel Scanpath Comparison Method Using Visualisation of Graph Cliques". Journal of Eye Movement Research 9 (4). ISSN 1995-8692. doi:10.16910/jemr.9.4.5. Parámetro descoñecido
|doi-access=
ignorado (Axuda) - ↑ Krassanakis, Vassilios; Filippakopoulou, Vassiliki; Nakos, Byron (2014-02-21). "EyeMMV toolbox: An eye movement post-analysis tool based on a two-step spatial dispersion threshold for fixation identification". Journal of Eye Movement Research 7 (1). ISSN 1995-8692. doi:10.16910/jemr.7.1.1. Parámetro descoñecido
|doi-access=
ignorado (Axuda); Parámetro descoñecido|s2cid=
ignorado (Axuda) - ↑ Dickson, Ben (2017-02-19). "Unlocking the potential of eye tracking technology". TechCrunch. Consultado o 2021-04-08.
- ↑ Reddy, Venkateshwar (2019-04-15). "Eye Tracking Technology: Applications & Future Scope". IndustryARC. Consultado o 2021-04-08.
- ↑ Rogers, Sol (2019-02-05). "Seven Reasons Why Eye-tracking Will Fundamentally Change VR". Forbes. Consultado o 2020-05-13.
- ↑ Stein, Scott (2020-01-31). "Eye tracking is the next phase for VR, ready or not". CNET. Consultado o 2021-04-08.
- ↑ Stanley, Jay (2013-05-06). "The Privacy-Invading Potential of Eye Tracking Technology". American Civil Liberties Union. Consultado o 2021-04-08.
- ↑ Blain, Loz (2021-03-29). "Eye tracking can reveal an unbelievable amount of information about you". New Atlas. Consultado o 2021-04-08.
- ↑ Kröger, Jacob Leon; Lutz, Otto Hans-Martin; Müller, Florian (2020). "What Does Your Gaze Reveal About You? On the Privacy Implications of Eye Tracking". Privacy and Identity Management. Data for Better Living: AI and Privacy. IFIP Advances in Information and Communication Technology 576. Cham: Springer International Publishing. pp. 226–241. ISBN 978-3-030-42503-6. ISSN 1868-4238. doi:10.1007/978-3-030-42504-3_15. Parámetro descoñecido
|doi-access=
ignorado (Axuda)
Véxase tamén
[editar | editar a fonte]Bibliografía
[editar | editar a fonte]- Bojko, Aga (2013). Eye Tracking The User Experience (A Practical Guide to Research). Rosenfeld Media. ISBN 978-1-933820-10-1.
- Cornsweet, TN; Crane, HD (1973). "Accurate two-dimensional eye tracker using first and fourth Purkinje images". J Opt Soc Am. 63 (8): 921–8. Bibcode:1973JOSA...63..921C. doi:10.1364/josa.63.000921. PMID 4722578. S2CID 14866408.
- Cornsweet, TN (1958). "New technique for the measurement of small eye movements". JOSA. 48 (11): 808–811. Bibcode:1958JOSA...48..808C. doi:10.1364/josa.48.000808. PMID 13588456.
- Hunziker, Hans-Werner (2006). Im Auge des Lesers: foveale und periphere Wahrnehmung – vom Buchstabieren zur Lesefreude [In the eye of the reader: foveal and peripheral perception – from letter recognition to the joy of reading] (in German). Transmedia Stäubli Verlag Zürich. ISBN 978-3-7266-0068-6.
- Just, MA; Carpenter, PA (1980). "A theory of reading: from eye fixation to comprehension" (PDF). Psychol Rev. 87 (4): 329–354. doi:10.1037/0033-295x.87.4.329. PMID 7413885. S2CID 3793521.
- Pieters, R.; Wedel, M. (2004). "Attention Capture and Transfer by elements of Advertisements". Journal of Marketing 68 (2): 36–50. doi:10.1509/jmkg.68.2.36.27794.
- Pieters, R.; Wedel, M. (2007). "Goal Control of Visual Attention to Advertising: The Yarbus Implication". Journal of Consumer Research 34 (2): 224–233. doi:10.1086/519150.
- Rayner, K (1978). "Eye movements in reading and information processing". Psychological Bulletin. 85 (3): 618–660. CiteSeerX 10.1.1.294.4262. doi:10.1037/0033-2909.85.3.618. PMID 353867.
- Rayner, K (1998). "Eye movements in reading and information processing: 20 years of research". Psychological Bulletin. 124 (3): 372–422. CiteSeerX 10.1.1.211.3546. doi:10.1037/0033-2909.124.3.372. PMID 9849112.
- Romano Bergstrom, Jennifer (2014). Eye Tracking in User Experience Design. Morgan Kaufmann. ISBN 978-0-12-408138-3.
Este artigo non está dentro dunha categoría ou precisa categorías adicionais. Por favor, engádelle as categorías pertinentes e retira o modelo {{Sen categoría}} .Colabora connosco neste artigo e noutros en condicións semellantes para que a Galipedia mellore e medre. |