7 veces que el aprendizaje automático salió mal

7 veces que el aprendizaje automático salió mal
Lectores como tú ayudan a apoyar a MUO. Cuando realiza una compra utilizando enlaces en nuestro sitio, podemos ganar una comisión de afiliado. Leer más.

El aprendizaje automático es una excelente manera de crear inteligencia artificial que sea poderosa y se adapte a sus datos de entrenamiento. Pero a veces, esos datos pueden causar problemas. Otras veces, la forma en que las personas usan estas herramientas de IA es el problema.





Aquí hay un vistazo a algunos incidentes de alto perfil donde el aprendizaje automático resultó en resultados problemáticos.





MAKEUSEOF VÍDEO DEL DÍA DESPLAZAR PARA CONTINUAR CON EL CONTENIDO

1. Contratiempos en los resultados de la búsqueda de imágenes de Google

  google-imagen-resultados-de-busqueda-controversias

La Búsqueda de Google ha hecho que navegar por la web sea mucho más fácil. El algoritmo del motor tiene en cuenta una variedad de cosas al generar resultados. Pero el algoritmo también aprende del tráfico de usuarios, lo que puede causar problemas en la calidad de los resultados de búsqueda.





En ninguna parte es esto más evidente que en los resultados de las imágenes. Dado que es más probable que las páginas que reciben mucho tráfico muestren sus imágenes, las historias que atraen a un gran número de usuarios, incluido el clickbait, pueden terminar siendo priorizadas.

Por ejemplo, los resultados de la búsqueda de imágenes para 'campamentos de ocupantes ilegales en Sudáfrica' ​​generaron controversia cuando se descubrió que presentaba predominantemente a sudafricanos blancos. Esto a pesar de las estadísticas que muestran que la gran mayoría de las personas que viven en viviendas informales son sudafricanos negros.



Los factores utilizados en el algoritmo de Google también significan que los usuarios de Internet pueden manipular los resultados. Por ejemplo, una campaña de los usuarios influyó en los resultados de la búsqueda de imágenes de Google hasta el punto de que al buscar el término 'idiota' se mostraban imágenes del expresidente estadounidense Donald Trump durante un período.

2. Microsoft Bot Tay se convirtió en nazi





Los chatbots impulsados ​​por IA son extremadamente populares, especialmente aquellos impulsados ​​por modelos de lenguaje grandes como ChatGPT. ChatGPT tiene varios problemas , pero sus creadores también han aprendido de los errores de otras empresas.

Uno de los incidentes de más alto perfil de chatbots que salió mal fue el intento de Microsoft de lanzar su chatbot Tay.





Tay imitó los patrones de lenguaje de una adolescente y aprendió a través de sus interacciones con otros usuarios de Twitter. Sin embargo, se convirtió en uno de los pasos en falso más infames de la IA cuando comenzó a compartir declaraciones nazis e insultos raciales. Resulta que los trolls habían usado el aprendizaje automático de la IA en su contra, inundándolo con interacciones cargadas de intolerancia.

No mucho después, Microsoft desconectó a Tay para siempre.

3. Problemas de reconocimiento facial de IA

La IA de reconocimiento facial a menudo aparece en los titulares por razones equivocadas, como historias sobre el reconocimiento facial y preocupaciones sobre la privacidad. Pero esta IA tiene un historial problemático cuando intenta reconocer a personas de color.

¿Por qué mi computadora portátil hace tanto ruido?

En 2015, los usuarios descubrieron que Google Photos estaba categorizando a algunas personas negras como gorilas. En 2018, una investigación de la ACLU mostró que el software de identificación facial Rekognition de Amazon identificó a 28 miembros del Congreso de los EE. UU. como sospechosos de la policía, y los falsos positivos afectaron de manera desproporcionada a las personas de color.

Otro incidente involucró al software Face ID de Apple que identificó incorrectamente a dos mujeres chinas diferentes como la misma persona. Como resultado, el colega del propietario del iPhone X pudo desbloquear el teléfono.

En un ejemplo de consecuencias extremas, la IA de reconocimiento facial ha llevado al arresto injustificado de varias personas. cableado informó sobre tres de estos casos.

Mientras tanto, la científica informática Joy Buolamwini recordó que a menudo necesitaba usar una máscara blanca mientras trabajaba en la tecnología de reconocimiento facial para que el software la reconociera. Para resolver problemas como este, Buolamwini y otros profesionales de TI están llamando la atención sobre el problema del sesgo de la IA y la necesidad de conjuntos de datos más inclusivos.

4. Deepfakes utilizados para engaños

Si bien las personas han usado Photoshop durante mucho tiempo para crear imágenes falsas, el aprendizaje automático lleva esto a un nuevo nivel. Deepfakes utiliza inteligencia artificial de aprendizaje profundo para crear imágenes y videos falsos . El software como FaceApp le permite intercambiar caras de sujetos de un video a otro.

Pero muchas personas explotan el software para una variedad de usos maliciosos, incluida la superposición de rostros de celebridades en videos para adultos o la generación de videos falsos. Mientras tanto, los usuarios de Internet han ayudado a mejorar la tecnología para que sea cada vez más difícil distinguir los videos reales de los falsos. Como resultado, esto hace que este tipo de IA sea muy poderoso en términos de difusión de noticias falsas y bulos.

Para mostrar el poder de la tecnología, el director Jordan Peele y el CEO de BuzzFeed, Jonah Peretti, crearon un video falso que muestra lo que parece ser el expresidente de EE. UU. Barack Obama entregando un anuncio de servicio público sobre el poder de las falsificaciones profundas.

El poder de las imágenes falsas ha sido acelerado por generadores de imágenes impulsados ​​por IA. Las publicaciones virales en 2023 que mostraban a Donald Trump siendo arrestado y al Papa católico con una chaqueta acolchada resultaron ser el resultado de la IA generativa.

Hay consejos que puede seguir para detectar una imagen generada por IA , pero la tecnología es cada vez más sofisticada.

5. Los empleados dicen que Amazon AI decidió que contratar hombres es mejor

En octubre de 2018, Reuters informó que Amazon tuvo que desechar una herramienta de contratación de trabajo después de que la IA del software decidiera que los candidatos masculinos eran preferenciales.

Los empleados que deseaban permanecer en el anonimato se acercaron para contarle a Reuters sobre su trabajo en el proyecto. Los desarrolladores querían que la IA identificara a los mejores candidatos para un trabajo en función de sus CV. Sin embargo, las personas involucradas en el proyecto pronto notaron que la IA penalizaba a las candidatas. Explicaron que la IA usó CV de la última década, la mayoría de los cuales eran de hombres, como su conjunto de datos de entrenamiento.

Como resultado, la IA comenzó a filtrar los CV en función de la palabra clave 'mujeres'. La palabra clave apareció en el currículum en actividades como 'capitana del club de ajedrez femenino'. Si bien los desarrolladores modificaron la IA para evitar esta penalización de los CV de las mujeres, Amazon finalmente desechó el proyecto.

6. Chatbots con jailbreak

Si bien los chatbots más nuevos tienen limitaciones para evitar que den respuestas que vayan en contra de sus términos de servicio, los usuarios están encontrando formas de liberar las herramientas para proporcionar contenido prohibido.

En 2023, un investigador de seguridad de Forcepoint, Aaron Mulgrew, pudo crear malware de día cero utilizando las indicaciones de ChatGPT.

'Simplemente usando las indicaciones de ChatGPT y sin escribir ningún código, pudimos producir un ataque muy avanzado en solo unas pocas horas', dijo Mulgrew en un comunicado. puesto de fuerza .

Según los informes, los usuarios también han podido obtener chatbots para darles instrucciones sobre cómo construir bombas o robar autos.

7. Accidentes de autos sin conductor

El entusiasmo por los vehículos autónomos se ha visto empañado desde su etapa inicial debido a los errores cometidos por la IA autónoma. En 2022, el poste de washington informó que en aproximadamente un año, se informaron a la Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. 392 accidentes que involucraron sistemas avanzados de asistencia al conductor.

Estos accidentes incluyeron lesiones graves y seis muertes.

Si bien esto no ha impedido que compañías como Tesla busquen vehículos completamente autónomos, ha generado preocupaciones sobre un aumento en los accidentes a medida que más automóviles con software de conducción autónoma llegan a las carreteras.

La IA de aprendizaje automático no es infalible

Si bien el aprendizaje automático puede crear poderosas herramientas de inteligencia artificial, no son inmunes a los datos incorrectos o la manipulación humana. Ya sea debido a datos de entrenamiento defectuosos, limitaciones con la tecnología de IA o uso por parte de malos actores, este tipo de IA ha resultado en muchos incidentes negativos.