7 razones contra el uso de IA generativa en aplicaciones de mensajería

7 razones contra el uso de IA generativa en aplicaciones de mensajería
Lectores como tú ayudan a apoyar a MUO. Cuando realiza una compra utilizando enlaces en nuestro sitio, podemos ganar una comisión de afiliado. Leer más.

En IA, el progreso se está logrando a niveles sin precedentes, con nuevos desarrollos realizados casi semanalmente. Las herramientas de IA generativa como ChatGPT ahora son tan populares que se están integrando en todas partes.





¿Pero deberíamos? Usar la tecnología de IA para la productividad, la educación y el entretenimiento tiene sentido. Sin embargo, las empresas ahora están pensando en ponerlo directamente en nuestras aplicaciones de mensajería, y esto puede resultar destructivo. Aquí hay siete razones por las cuales.





MAKEUSEOF VÍDEO DEL DÍA DESPLAZAR PARA CONTINUAR CON EL CONTENIDO

1. Los chatbots de IA tienden a alucinar

si has usado ChatGPT, Bing o Bard , sabes que los chatbots generativos de IA tienden a 'alucinar'. La alucinación de IA es cuando estos chatbots inventan cosas debido a la falta de datos de entrenamiento adecuados sobre la consulta solicitada por el usuario.





En otras palabras, brindan información errónea pero suenan confiados al respecto, como si fuera un hecho. Este es un gran problema porque muchas personas no verifican los hechos cuando usan un chatbot y creen que es preciso de manera predeterminada. es uno de los mas grandes Errores a evitar al usar herramientas de IA .

Cuando se coloca en aplicaciones de mensajería, la cantidad de daño que puede causar es aún mayor, ya que las personas pueden usarlo para (intencionalmente o no) difundir información errónea entre sus contactos y en las redes sociales, proliferar propaganda y fomentar cámaras de eco.



2. A la gente no le gusta hablar con los bots

  Pequeño robot naranja y plateado sentado en un suelo enmoquetado con un portátil delante.
Crédito de la imagen: estudio de gráficos / Vecteezy

Piense en lo molesto que es cuando intenta ponerse en contacto con el servicio de atención al cliente de una empresa y debe hablar con un chatbot en lugar de con un ejecutivo humano real que puede comprender los matices de su problema y ofrecer la orientación adecuada.

Lo mismo se aplica a las conversaciones personales. Imagina hablar con tu amigo y, a la mitad, te das cuenta de que ha estado usando IA para responder a tus mensajes todo este tiempo en lugar de hacerlo solo en función de sus pensamientos y opiniones.





cómo conseguir nuevos emojis android

Si usted es como la mayoría de las personas, inmediatamente se sentiría ofendido y percibiría el uso de la IA en una conversación privada como algo insensible, espeluznante e incluso pasivo-agresivo, como si la otra persona no considerara que usted merece su tiempo, atención y atención. empatía.

El uso de IA para escribir correos electrónicos, por ejemplo, es comprensible ya que es una interacción profesional, pero su uso en conversaciones personales no será algo que nadie quiera alentar. Una vez que la novedad de la tecnología se desvanece, será de mala educación usarla en este contexto.





3. La IA no puede copiar tu tonalidad única

Hoy en día, las herramientas de IA generativa ya le permiten cambiar la tonalidad de su mensaje, como formal, alegre o neutral, según a quién le esté escribiendo y cómo quiera que se transmita. Redacción mágica en Google Messages , por ejemplo, le permite hacer lo mismo.

Si bien eso es bueno, tenga en cuenta que estas tonalidades se entrenan en función de los datos de entrenamiento establecidos y no de su historial de chat personal, por lo que no puede replicar su tonalidad única o los emojis que usaría normalmente.

Es posible que esto no le importe mucho, especialmente si está utilizando IA para escribir correos electrónicos de trabajo simples para los que todos usan más o menos la misma tonalidad formal. Pero importa mucho más de lo que crees cuando lo usas para hablar con tus amigos y familiares en una aplicación de mensajería.

Hasta que las herramientas de inteligencia artificial le permitan la opción de entrenar su modelo de lenguaje en función de su historial de chat, no podrán replicar su dialecto y excentricidades únicos. Dicho esto, este desafío no es tan difícil de resolver, por lo que es posible que lo implementemos pronto.

4. Escribir buenas indicaciones lleva tiempo

  Hombre enviando mensajes de texto por teléfono móvil

Obtener los resultados deseados de un chatbot de IA depende en gran medida de la calidad de su aviso. Si escribe un mensaje incorrecto, obtendrá una respuesta incorrecta y tendrá que refinar el mensaje hasta que obtenga un resultado satisfactorio.

Este proceso tiene sentido cuando desea escribir contenido de formato largo, pero es extremadamente ineficiente cuando escribe varias respuestas cortas en una conversación informal.

En la mayoría de los casos, el tiempo que podría tomar para refinar sus avisos y obtener respuestas utilizables será mayor que el tiempo que le tomaría si simplemente escribiera los mensajes usted mismo.

5. La IA puede producir resultados ofensivos

Además de la precisión, el sesgo es uno de los mayores problemas con la IA generativa . Algunas personas perciben la IA como imparcial ya que no tiene sus propios motivos. Sin embargo, las personas detrás de estas herramientas de IA son, en última instancia, humanos con sus propios sesgos.

En otras palabras, el sesgo se integra en el sistema. La IA no comprende inherentemente lo que se considera ofensivo y lo que no, por lo que podría, por ejemplo, ser entrenada para tener prejuicios contra ciertos grupos de personas o ciertas culturas, lo que produce resultados ofensivos en el proceso.

6. Es posible que la IA no entienda el sarcasmo o el humor

La comprensión de AI de las figuras retóricas, como la ironía y la metáfora, está mejorando con el tiempo, pero aún está lejos de estar en un punto en el que pueda usarse en una conversación para reconocer el humor. Al pedirle a Bard de Google que fuera sarcástico, por ejemplo, los resultados fueron impredecibles.

  El chatbot Google Bard intenta ser sarcástico

En algunos casos, fue genuinamente divertido y siguió mi sarcasmo. Pero en otros casos, volvió por defecto a una respuesta poco graciosa o simplemente se negó a participar en la conversación por completo, diciendo que como es solo un LLM, no puede ayudarme con mi consulta.

7. La dependencia de la IA puede conducir a una comunicación deficiente

Otro problema sutil pero sustancial con la integración de la IA generativa en las aplicaciones de mensajería es cómo puede afectar nuestra capacidad de comunicarnos. Si confiamos cada vez más en la IA para conversar entre nosotros, puede obstaculizar nuestra capacidad de entrenar nuestra inteligencia emocional y habilidades sociales.

El punto aquí es que cuanto más subcontratemos nuestras necesidades sociales a la IA, peor seremos para comunicar ideas a través de medios orgánicos. En otras palabras, cuanto más utilice la IA para hablar con sus contactos, más probable será que degrade la calidad de sus relaciones.

No todo necesita tener IA

A menudo, con el advenimiento de la nueva tecnología, estamos tan ocupados descubriendo cómo usarla que no logramos discutir si deberíamos usarla en primer lugar.

Si bien tiene mucho sentido usar IA generativa para escribir correos electrónicos, generar ideas o crear imágenes para presentaciones, su integración en las aplicaciones de mensajería invita a muchas críticas.