Los detectores de contenido de IA no funcionan, y eso es un gran problema

Los detectores de contenido de IA no funcionan, y eso es un gran problema
Lectores como tú ayudan a apoyar a MUO. Cuando realiza una compra utilizando enlaces en nuestro sitio, podemos ganar una comisión de afiliado. Leer más.

La inteligencia artificial (IA) transformará segmentos enteros de nuestra sociedad, nos guste o no, y eso incluye la World Wide Web.





Con un software como ChatGPT disponible para cualquier persona con conexión a Internet, cada vez es más difícil separar el contenido generado por IA del creado por un ser humano. Menos mal que tenemos detectores de contenido de IA, ¿verdad?





MAKEUSEOF VÍDEO DEL DÍA DESPLAZAR PARA CONTINUAR CON EL CONTENIDO

¿Funcionan los detectores de contenido de IA?

Los detectores de contenido de IA son herramientas especializadas que determinan si algo fue escrito por un programa de computadora o por un ser humano. Si simplemente busca en Google las palabras 'detector de contenido de IA', verá hay docenas de detectores por ahí, todos afirmando que pueden diferenciar de manera confiable entre texto humano y no humano.





La forma en que funcionan es bastante simple: pegas un texto y la herramienta te dice si fue generado por IA o no. En términos más técnicos, utilizando una combinación de técnicas de procesamiento de lenguaje natural y algoritmos de aprendizaje automático, los detectores de contenido de IA buscan patrones y previsibilidad, y hacen llamadas en base a eso.

Esto suena muy bien en papel, pero si alguna vez ha usado una herramienta de detección de IA, sabe muy bien que son impredecibles, por decirlo suavemente. La mayoría de las veces, detectan contenido escrito por humanos como IA, o texto creado por seres humanos como generado por IA. De hecho, algunos son vergonzosamente malos en lo que se supone que deben hacer.



¿por qué no funciona imessage en mi mac?

¿Qué tan precisos son los detectores de contenido de IA?

Si se encuentra en los Estados Unidos, el primer resultado de búsqueda de Google para 'detector de contenido de IA' es escritor.com (anteriormente conocido como Qordoba; esta es una plataforma de contenido de IA que también tiene su propio detector). Pero cuando pegas una sección de este aleatorio Associated Press artículo en la herramienta, afirma que hay una gran probabilidad de que haya sido generada por inteligencia artificial.

  Writer.com's AI content detector, screenshot

Entonces,writer.com se equivocó.





Para ser justos, otros detectores de contenido de IA no son mejores. No solo producen falsos positivos, sino que también marcan el contenido de IA como humano. E incluso cuando no lo hacen, hacer ajustes menores al texto generado por IA es suficiente para aprobar con gran éxito.

En febrero de 2023, el profesor de la Universidad de Wollongong, Armin Alimardani, y la profesora asociada de la UNSW Sydney, Emma A. Jane, probaron una serie de detectores de contenido de IA populares y establecieron que ninguno de ellos es confiable. En su análisis, que fue publicado en La conversación , Alimardani y Jane concluyeron que esta 'carrera armamentista' de IA entre generadores de texto y detectores supondrá un desafío importante en el futuro, especialmente para los educadores.

Pero no son solo los educadores y los maestros los que tienen motivos para preocuparse: todos los tienen. A medida que el texto generado por IA se vuelve ubicuo, es posible diferenciar entre lo que es 'real' y lo que no lo es. es decir, realmente detectar cuando algo está escrito por AI , será más difícil. Esto tendrá un impacto masivo en prácticamente todas las industrias y áreas de la sociedad, incluso en las relaciones personales.

Implicaciones de la IA para la ciberseguridad y la privacidad

El hecho de que no existan mecanismos confiables para determinar si algo fue creado por software o por un ser humano tiene serias implicaciones para la ciberseguridad y la privacidad.

Los actores de amenazas ya están usando ChatGPT para escribir malware , generar correos electrónicos de phishing, escribir spam, crear sitios fraudulentos y más. Y si bien hay formas de defenderse de eso, ciertamente es preocupante que no haya un software capaz de diferenciar de manera confiable entre contenido orgánico y bot.

Las noticias falsas también son un problema enorme. Con la IA generativa en escena, los agentes de desinformación pueden escalar sus operaciones de una manera sin precedentes. Mientras tanto, una persona común no tiene forma de saber si algo que está leyendo en línea fue creado por un software o por un ser humano.

La privacidad es un asunto completamente diferente. Tome ChatGPT, por ejemplo. Fue alimentado más de 300 mil millones de palabras antes de su lanzamiento. Este contenido se extrajo de libros, publicaciones de blogs y foros, artículos y redes sociales. Se recopiló sin el consentimiento de nadie y aparentemente sin tener en cuenta la protección de la privacidad y los derechos de autor.

Luego está también el tema de los falsos positivos. Si el contenido se marca por error como generado por IA, ¿no podría eso conducir a la censura, que de todos modos es un problema enorme? Sin mencionar el daño que podría causar a la reputación de uno ser acusado de usar texto creado por IA, tanto en línea como en la vida real.

descargador y reproductor de música sin conexión gratuito

Si de hecho hay una carrera armamentista entre la IA generativa y los detectores de contenido, la primera está ganando. Lo que es peor, no parece haber solución. Todos tenemos nuestros productos a medio cocer que ni la mitad del tiempo funcionan, o se pueden engañar muy fácilmente.

Cómo detectar contenido de IA: posibles soluciones

Que actualmente no parezcamos tener respuestas reales a este problema no significa que no las tendremos en el futuro. De hecho, ya hay varias propuestas serias que podrían funcionar. La marca de agua es una.

Cuando se trata de IA y modelos de lenguaje profundo, la marca de agua se refiere a incrustar una especie de código secreto en el texto generado por IA (por ejemplo, patrón de palabras, estilo de puntuación). Dicha marca de agua sería invisible a simple vista y, por lo tanto, casi imposible de eliminar, pero un software especializado podría detectarla.

De hecho, en 2022, Universidad de Maryland Los investigadores desarrollaron un nuevo método de marca de agua para redes neuronales artificiales. El investigador principal, Tom Goldstein, dijo en ese momento que su equipo había logrado 'probar matemáticamente' que su marca de agua no se puede eliminar por completo.

Por el momento, lo que una persona normal puede hacer es confiar en sus instintos y sentido común. Si hay algo extraño en el contenido que está leyendo, si se siente poco natural, repetitivo, poco imaginativo, banal, es posible que haya sido creado por software. Por supuesto, también debe verificar cualquier información que vea en línea, verificar dos veces la fuente y mantenerse alejado de los sitios web dudosos.

La revolución de la IA está en marcha

Algunos argumentan que la quinta revolución industrial ya está aquí, ya que la inteligencia artificial ocupa un lugar central en lo que se describe como una convergencia de lo digital y lo físico. Si ese es realmente el caso o no, todo lo que podemos hacer es adaptarnos.

La buena noticia es que la industria de la ciberseguridad se está adaptando a esta nueva realidad e implementando nuevas estrategias de defensa con IA y aprendizaje automático a la vanguardia.