Alucinación (IA)

Na Galipedia, a Wikipedia en galego.

Unha alucinación, no campo da intelixencia artificial (IA) refírese, en termos xerais, ás saídas dun sistema de redes neurais que afirman como feitos verdadeiros informacións erradas. Isto é debido a unha incorrecta detección de patróns no corpus de datos empregado no adestramento do sistema, levando a unha percepción ilusoria.

É un termo máis comunmente usado en modelos de intelixencia artificial xerativa, como o modelo de linguaxe de grande escala.

Clasificación[editar | editar a fonte]

Segundo a categorización de diversos artigos,[1][2] existen dous tipos de alucinacións:

  • Alucinación intrínseca: O contido xerado contradí unha fonte contrastable. Por exemplo: "Martin Luther King Jr. morre en 2010." é falso, e pode atoparse a fonte coa información correcta: "Martin Luther King Jr. (...) asasinado (...) o 4 de abril de 1968"[3]
  • Alucinación extrínseca: A saída non pode ser verificada nin rebatida con ningunha fonte. Por exemplo: "Hai vida noutros planetas." Este tipo de alucinación non é sempre indebida, pois pode provir dunha información correcta externa. É, de todos modos, unha ocorrencia problemática que pode dar lugar a erros.

Notas[editar | editar a fonte]

  1. Dziri, Nouha; Madotto, Andrea; Zaïane, Osmar; Bose, Avishek Joey (2021). "Neural Path Hunter: Reducing Hallucination in Dialogue Systems via Path Grounding". Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (Stroudsburg, PA, USA: Association for Computational Linguistics). doi:10.18653/v1/2021.emnlp-main.168. 
  2. Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Ye Jin; Madotto, Andrea (2023-03-03). "Survey of Hallucination in Natural Language Generation". ACM Computing Surveys 55 (12): 248:1–248:38. ISSN 0360-0300. doi:10.1145/3571730. 
  3. "Martin Luther King". 2024-05-12.