¿Qué es la alucinación de IA y cómo se detecta?

¿Qué es la alucinación de IA y cómo se detecta?
Lectores como tú ayudan a apoyar a MUO. Cuando realiza una compra utilizando enlaces en nuestro sitio, podemos ganar una comisión de afiliado. Leer más.

La alucinación de la Inteligencia Artificial (IA) suena desconcertante. Probablemente estés pensando: '¿No es la alucinación un fenómeno humano?' Bueno, sí, solía ser un fenómeno exclusivamente humano hasta que la IA comenzó a exhibir características humanas como el reconocimiento facial, el autoaprendizaje y el reconocimiento de voz.





MAKEUSEOF VÍDEO DEL DÍA DESPLAZAR PARA CONTINUAR CON EL CONTENIDO

Desafortunadamente, la IA adquirió algunos atributos negativos, incluidas las alucinaciones. Entonces, ¿la alucinación de la IA es similar al tipo de alucinación que experimentan los humanos?





cómo jugar pokemon en la tableta android

¿Qué es la alucinación de IA?

La alucinación de inteligencia artificial ocurre cuando un modelo de IA genera resultados diferentes a los esperados. Tenga en cuenta que algunos modelos de IA están entrenados para generar intencionalmente resultados no relacionados con ninguna entrada (datos) del mundo real.





Por ejemplo, Los principales generadores de texto a arte de IA , como DALL-E 2, puede generar creativamente imágenes novedosas que podemos etiquetar como 'alucinaciones', ya que no se basan en datos del mundo real.

Alucinación de IA en modelos de procesamiento de lenguajes grandes

Consideremos cómo se vería la alucinación de la IA en un modelo de procesamiento de lenguaje grande como ChatGPT. Una alucinación de ChatGPT daría como resultado que el bot le diera un hecho incorrecto con alguna afirmación, de modo que naturalmente tomaría esos hechos como verdad.



En términos simples, son declaraciones inventadas por el chatbot artificialmente inteligente. Aquí hay un ejemplo:

  ChatGPT's response to where Elon Musk's house is located

En una consulta adicional, ChatGPT apareció con esto:





  Un aviso de ChatGPT más consultando dónde está Elon Musk's factory is at in brazil

Alucinación de IA en visión artificial

Consideremos otro campo de la IA que puede experimentar la alucinación de la IA: Visión por computador . El cuestionario a continuación muestra un montaje 4x4 con dos entidades que se parecen mucho. Las imágenes son una mezcla de papas fritas BBQ y hojas.

El desafío es seleccionar las papas fritas sin golpear ninguna hoja en el montaje. Esta imagen puede parecer engañosa para una computadora y es posible que no pueda diferenciar entre las papas fritas BBQ y las hojas.





  Un montaje 4x4 de papas fritas BBQ y hojas

Aquí hay otro montaje con una mezcla de imágenes de caniche y bollo de hilo de cerdo. Lo más probable es que una computadora no pueda diferenciarlos y, por lo tanto, mezcle las imágenes.

  Un montaje 4x4 de caniche y bollo de hilo de cerdo

¿Por qué ocurre la alucinación de la IA?

La alucinación de la IA puede ocurrir debido a ejemplos contradictorios: datos de entrada que engañan a una aplicación de IA para que los clasifique erróneamente. Por ejemplo, al entrenar aplicaciones de IA, los desarrolladores usan datos (imagen, texto u otros); si los datos se modifican o distorsionan, la aplicación interpreta la entrada de manera diferente y genera una salida incorrecta.

Por el contrario, un ser humano aún puede reconocer e identificar los datos con precisión a pesar de las distorsiones. Podemos etiquetar esto como sentido común, un atributo humano que la IA aún no posee. Mira cómo se engaña a la IA con ejemplos contradictorios en este video:

Con respecto a los grandes modelos basados ​​en el lenguaje, como ChatGPT y sus alternativas , pueden surgir alucinaciones debido a una decodificación inexacta del transformador (modelo de aprendizaje automático).

En IA, un transformador es un modelo de aprendizaje profundo que utiliza la autoatención (relaciones semánticas entre palabras en una oración) para producir un texto similar al que escribiría un ser humano usando una secuencia de codificador-decodificador (entrada-salida).

Por lo tanto, los transformadores, un modelo de aprendizaje automático semisupervisado, pueden generar un nuevo cuerpo de texto (salida) a partir del gran corpus de datos de texto utilizado en su entrenamiento (entrada). Lo hace prediciendo la siguiente palabra de una serie basada en las palabras anteriores.

Con respecto a la alucinación, si un modelo de lenguaje se entrenó con datos y recursos insuficientes e inexactos, se espera que el resultado sea inventado e inexacto. El modelo de lenguaje podría generar una historia o narrativa sin inconsistencias lógicas o conexiones poco claras.

En el siguiente ejemplo, se le pidió a ChatGPT que diera una palabra similar a 'rebelión' y comenzara con una 'b'. Aquí está su respuesta:

qué servicio de comida a domicilio paga más
  Captura de pantalla de ChatGPT dando respuestas incorrectas a una pregunta

Al seguir investigando, siguió dando respuestas incorrectas, con un alto nivel de confianza.

  Captura de pantalla de ChatGPT dando múltiples respuestas incorrectas a un aviso

Entonces, ¿por qué ChatGPT no puede dar una respuesta precisa a estas indicaciones?

Podría ser que el modelo de lenguaje no esté equipado para manejar indicaciones bastante complejas como estas o que no pueda interpretar la indicación con precisión, ignorando la indicación al dar una palabra similar con un alfabeto específico.

¿Cómo detectas la alucinación de la IA?

Ahora es evidente que las aplicaciones de IA tienen el potencial de alucinar: generar respuestas de otro modo a partir del resultado esperado (hecho o verdad) sin ninguna intención maliciosa. Y detectar y reconocer las alucinaciones de la IA depende de los usuarios de dichas aplicaciones.

Aquí hay algunas formas de detectar alucinaciones de IA mientras usa aplicaciones comunes de IA:

1. Grandes modelos de procesamiento de idiomas

  Imagen que muestra Bing Chat y ChatGPT en señales con flechas

Aunque es raro, si nota un error gramatical en el contenido producido por un gran modelo de procesamiento, como ChatGPT, eso debería levantar una ceja y hacerle sospechar una alucinación. De manera similar, cuando el contenido generado por texto no suena lógico, no se correlaciona con el contexto dado o no coincide con los datos de entrada, debe sospechar una alucinación.

Usar el juicio humano o el sentido común puede ayudar a detectar alucinaciones, ya que los humanos pueden identificar fácilmente cuando un texto no tiene sentido o no sigue la realidad.

2. Visión por computadora

  Imagen de un circuito y una cabeza humana.

Como rama de la inteligencia artificial, el aprendizaje automático y la informática, la visión por computadora permite a las computadoras reconocer y procesar imágenes como los ojos humanos. Usando redes neuronales convolucionales , confían en la increíble cantidad de datos visuales utilizados en su entrenamiento.

Una desviación de los patrones de los datos visuales utilizados en el entrenamiento dará como resultado alucinaciones. Por ejemplo, si una computadora no fue entrenada con imágenes de una pelota de tenis, podría identificarla como una naranja verde. O si una computadora reconoce un caballo junto a una estatua humana como un caballo junto a un ser humano real, entonces se ha producido una alucinación de IA.

Entonces, para detectar una alucinación de visión por computadora, compare la salida generada con lo que se espera que vea un humano [normal].

3. Coches autónomos

  ford crucero azul 2
Credito de imagen: Vado

Gracias a la IA, los autos sin conductor se están infiltrando gradualmente en el mercado automotriz. Pioneros como Tesla Autopilot y Ford's BlueCruise han estado defendiendo la escena de los autos sin conductor. Puedes revisar cómo y qué ve el piloto automático de Tesla para comprender un poco cómo la IA impulsa los autos sin conductor.

Si posee uno de esos autos, le gustaría saber si su auto AI está alucinando. Una señal será si su vehículo parece estar desviándose de sus patrones de comportamiento normales mientras conduce. Por ejemplo, si el vehículo frena o se desvía bruscamente sin ninguna razón aparente, su vehículo de IA podría estar alucinando.

Los sistemas de IA también pueden alucinar

Los humanos y los modelos de IA experimentan las alucinaciones de manera diferente. Cuando se trata de IA, las alucinaciones se refieren a resultados erróneos que están a kilómetros de distancia de la realidad o que no tienen sentido dentro del contexto del mensaje dado. Por ejemplo, un chatbot de IA puede dar una respuesta gramatical o lógicamente incorrecta o identificar erróneamente un objeto debido al ruido u otros factores estructurales.

Las alucinaciones de IA no son el resultado de una mente consciente o subconsciente, como se observaría en los humanos. Más bien, resulta de la inadecuación o insuficiencia de los datos utilizados en el entrenamiento y la programación del sistema de IA.