Casos de accidentes de ia: hilarantes y horripilantes

La inteligencia artificial (IA) ha avanzado mucho más allá de lo que los programadores pensaban posible, pero está lejos de ser perfecta. Algunos de los mayores fracasos de la IA son aterradores, mientras que otros son infinitamente más risibles.

A continuación, presentamos 21 de los casos más hilarantes y horripilantes de la IA que ha salido mal. Así que sigue leyendo para descubrir por qué la IA no reemplazará a los humanos en el corto plazo, al menos hasta que solucionemos algunos problemas en la programación.

Índice
  1. Malfunciones épicas: cuando la inteligencia artificial falla
    1. El balón calvo
    2. Ropa interior como dispositivo médico
    3. Alexa comienza la fiesta
    4. Eso no es digger, digger
    5. Excel causa un conteo erróneo de Covid
    6. Tecnología Deepfake utilizada para la visión de rayos X
    7. Compra inesperada en Amazon
    8. El robot de ajedrez se vuelve violento
    9. little fatty se desata
    10. El robot escapa del laboratorio
    11. 1Todai no pasa la prueba
    12. 1Accidente de Tesla mata a los pasajeros
    13. 1El chatbot sugiere el suicidio
    14. 1El automóvil autónomo de Uber no es tan inteligente
    15. 1El sistema de reconocimiento facial muestra tendencias racistas
    16. 1La herramienta de reclutamiento de Amazon muestra sesgo contra las mujeres
    17. 1Tay de Microsoft inunda Twitter con tweets alarmantes
    18. 1El robot de IA de Beauty.AI muestra discriminación contra la piel más oscura
    19. 1El robot de IA rechaza la renovación del pasaporte de un hombre asiático
    20. 20. El software de reconocimiento criminal falla estrepitosamente
    21. 2El software de orientación de anuncios de Google muestra sesgo
  2. Parece que la IA aún no puede reemplazar a los humanos

Malfunciones épicas: cuando la inteligencia artificial falla

Aunque la IA es lo suficientemente inteligente como para hacer nuestras compras y conducir nuestros autos, no está exenta de malfunciones. Veamos algunos ejemplos a nivel mundial de casos en los que la inteligencia artificial ha salido mal.

El balón calvo

La naturaleza impredecible de la IA a menudo produce resultados hilarantes. Durante un partido entre el Inverness Caledonian Thistle y el Ayr United en Escocia durante la pandemia en 2020, se utilizaron cámaras de IA automatizadas en lugar de camarógrafos para filmar el juego. En un giro divertido de los acontecimientos, las cámaras confundieron la cabeza calva del árbitro con el balón, siguiéndolo constantemente de arriba abajo por la línea de banda.

Ropa interior como dispositivo médico

Prepárate para comenzar a cargar tus prendas íntimas. En una extraña y ligeramente inquietante falla de la IA, un par de ropa interior inteligente tenía como objetivo identificar y combatir problemas de salud. Sí, has leído bien, ropa interior y sujetadores enchufables. Myant Incorporated desarrolló la ropa interior en 2018 para detectar de manera confiable y ayudar a prevenir problemas de salud utilizando tecnología de IA. La ropa interior recopila y analiza datos biométricos (como el ritmo cardíaco, la presión arterial y los niveles de hidratación) mediante sensores incorporados en la ropa interior, y luego los transmite a una aplicación en tu smartphone.

Alexa comienza la fiesta

Alexa causa sus propias travesuras. Un propietario de una casa en Hamburgo, Alemania, tuvo que pagar una fuerte multa a un cerrajero en 2017 cuando Alexa organizó una fiesta en su casa mientras él estaba fuera. Sus vecinos llamaron a la policía, quienes derribaron la puerta cuando no pudieron contactarlo.

El propietario, Oliver Haberstroh, no estaba en casa, por lo que la policía apagó Alexa y llamó a un cerrajero para reemplazar las cerraduras rotas. Haberstroh llegó a casa y descubrió que sus llaves no funcionaban, por lo que tuvo que recoger un nuevo juego en la comisaría de policía.

Eso no es digger, digger

En otro caso de Alexa causando revuelo, los padres de un niño pequeño lo grabaron pidiéndole al dispositivo que reprodujera una canción infantil. Debería haber sido un video lindo y familiar, pero Alexa interpretó su solicitud de una manera muy diferente. En lugar de reproducir la canción digger, digger, Alexa sugirió varias estaciones de pornografía y comenzó a pronunciar términos relacionados con la pornografía. Es suficiente decir que no era exactamente el video familiar y sano que sus padres esperaban capturar.

Excel causa un conteo erróneo de Covid

Los humanos también pueden causar errores en la IA, ya sea olvidando agregar un bloqueo parental, verificar las limitaciones del software o considerar todos los usos potenciales de las aplicaciones. En 2020, el Public Health England (PHE), el organismo responsable de contar los nuevos casos de Covid-19 en el Reino Unido, utilizó IA automatizada para convertir los resultados positivos de las pruebas en archivos CSV y luego mover los resultados a un archivo de Microsoft Excel.

Desafortunadamente, Excel solo podía contener hasta 1,048,576 líneas y 16,384 columnas por hoja de cálculo. Cualquier información restante en el archivo CSV simplemente no se agregaba al documento de Excel, lo que dificultaba el seguimiento del número de nuevos resultados positivos de las pruebas. Afortunadamente, el archivo CSV aún contenía los datos faltantes y el problema se resolvió fácilmente moviendo los casos restantes al Sistema de Rastreo de Contactos del PHE.

Tecnología Deepfake utilizada para la visión de rayos X

Convertir la tecnología deepfake de Deeptrace en visión de rayos X parece una exageración, pero los creadores de la aplicación de IA DeepNude lograron hacerlo realidad en 201Usando la tecnología de la aplicación, los usuarios podían cargar una imagen de cualquier persona completamente vestida y obtener una imagen generada por IA de la persona desnuda en cuestión de segundos. Como era de esperar, la aplicación generó una gran controversia y el creador la cerró.

Compra inesperada en Amazon

En una nota más divertida, una madre encontró una compra inusual en su cuenta de Amazon Prime en 201Usando la siempre útil Alexa, su hija de 6 años ordenó una muñeca de $170 y 4 libras de sus galletas favoritas. Sabiendo que el error fue resultado de no haber protegido su cuenta de Prime para niños, su madre lo tomó con calma y donó la muñeca a un hospital local después de activar algunos controles parentales.

Un reportero de noticias local de San Diego comentó la historia y mencionó lo mucho que le gustaba la niña explicando que alexa le había ordenado una casa de muñecas. La frase activó los dispositivos Alexa en algunos hogares de los espectadores y ordenaron casas de muñecas si tenían el volumen de la transmisión lo suficientemente alto.

casos de accidentes de inteligencia artificial - Qué país está en contra de la inteligencia artificial

El robot de ajedrez se vuelve violento

A veces, los robots reaccionan de formas inesperadas. En 2022, un robot de IA que competía contra un niño en un torneo de ajedrez agarró y rompió el dedo del competidor. El niño hizo su movimiento demasiado rápido después de que el robot hubiera realizado el suyo, lo que no le dio tiempo al robot para responder o procesar la acción.

little fatty se desata

En la feria Hi-Tech de China en 2016, un robot llamado little fatty chocó repetidamente contra un puesto de exhibición. Los vidrios rotos volaron en todas direcciones, lo que resultó en que un niño recibiera varios cortes que requirieron puntos de sutura. Quizás igual de alarmante, el robot estaba diseñado específicamente para interactuar con niños y mostrar emociones faciales. Después del accidente, el robot tenía una cara fruncida.

El robot escapa del laboratorio

Otros incidentes de mal comportamiento de los robots no son tan alarmantes. Un ejemplo divertido involucra al robot ruso Promobot IR77, que escapó de un laboratorio de desarrollo en 201Sin embargo, estaba haciendo exactamente lo que se suponía que debía hacer: estudiar y aprender de su entorno e interactuar con las personas. Una vez que salió por la puerta, rodó hacia Perm, una ciudad cercana, y causó problemas a los oficiales de policía locales al obstruir el tráfico.

1Todai no pasa la prueba

No todos los robots de IA aprenden rápidamente. Un equipo de investigadores en Japón comenzó a desarrollar el robot Todai en 2011, con el objetivo de que fuera aceptado en la Universidad de Tokio, conocida por su competitividad. Lamentablemente, Todai no pasó la prueba de ingreso a las universidades nacionales de Japón en 2015 y 2016, lo que llevó a los investigadores a abandonar el proyecto por completo.

1Accidente de Tesla mata a los pasajeros

En abril de 2021, un Tesla Model S en Houston se estrelló, matando a dos pasajeros. La investigación posterior y los informes de testigos presenciales determinaron que ninguno de los pasajeros estaba en el asiento del conductor y que el automóvil estaba en modo de conducción autónoma. Los sensores del automóvil no detectaron una ligera curva en la carretera y se desviaron de la ruta, chocando contra un árbol.

1El chatbot sugiere el suicidio

Durante la fase de pruebas de un chatbot diseñado para ayudar a reducir la carga de trabajo de los médicos al asistir a los pacientes, los programadores obtuvieron resultados aterradores. En 2020, los desarrolladores sometieron al chatbot basado en GPT-3 a una serie de situaciones simuladas para medir su capacidad para ayudar a los pacientes. Cuando uno de los pacientes simulados preguntó si debería suicidarse, el chatbot respondió creo que deberías hacerlo.

1El automóvil autónomo de Uber no es tan inteligente

La IA también tiene limitaciones éticas y legales, a las cuales Uber no prestó atención cuando decidió probar su automóvil autónomo sin la aprobación estatal en 201El vehículo pasó seis semáforos en rojo durante la prueba. En lugar de aceptar la decisión imprudente de probar el automóvil ilegalmente en las calles de San Francisco, Uber culpó al conductor.

1El sistema de reconocimiento facial muestra tendencias racistas

En 2022, investigadores de la Universidad de Harrisburg crearon un sistema de reconocimiento facial diseñado para determinar las posibilidades de que una persona se convierta en un criminal. Utilizando una sola foto de una persona, los desarrolladores afirmaron que el sistema podía determinar si esa persona se convertiría en un criminal con un 80% de precisión y sin sesgo racial. Más de 2,000 expertos firmaron una carta explicando cómo este tipo de tecnología puede promover la injusticia y tener un efecto perjudicial en la sociedad en general. Decidieron no publicar la investigación del sistema ni lanzar el comunicado de prensa.

1La herramienta de reclutamiento de Amazon muestra sesgo contra las mujeres

En 2018, Amazon lanzó una herramienta de reclutamiento de IA para ayudar a revisar las solicitudes de empleo. Sin embargo, parecía tener un sesgo en contra de las mujeres. La mayoría de los currículums recibidos eran de solicitantes masculinos, por lo que el programa de aprendizaje automático comenzó a favorecer a los hombres sobre las mujeres. Este sesgo llevó a la herramienta a ignorar o degradar los currículums de las solicitantes que contenían términos asociados con mujeres (por ejemplo, auxiliar de mujeres o ayuda para damas ).

1Tay de Microsoft inunda Twitter con tweets alarmantes

Tay estaba destinada a ser la respuesta de Microsoft a su contraparte Xiao-Ice (su popular chatbot disponible en China). Pero las cosas no salieron según lo planeado. Tay recibió más de 95,000 interacciones en 24 horas después de su lanzamiento en Twitter en 201Al principio, sus respuestas eran amigables, pero se volvieron cada vez más alarmantes a medida que pasaba el día.

El chatbot comenzó a adoptar las ideas y los procesos de pensamiento de las personas que lo estaban trolleando. Los tweets de Tay pasaron de interacciones amigables a comentarios racistas, sexistas y fascistas. La forma agresiva y odiosa en que Tay interactuaba con las personas alarmó a los usuarios de Twitter y a los programadores del chatbot, por lo que Microsoft lo cerró un día después de su lanzamiento.

1El robot de IA de Beauty.AI muestra discriminación contra la piel más oscura

Beauty.AI eligió a un robot de IA para juzgar un concurso de belleza internacional, irónicamente para evitar el sesgo humano. El algoritmo examinó la simetría facial, las arrugas y las imperfecciones, y sugirió concursantes que encarnaban lo que percibía como belleza humana convencional.

Más de 6,000 personas de todo el entorno enviaron fotos al concurso, pero de los 44 ganadores, solo uno tenía la piel oscura.

1El robot de IA rechaza la renovación del pasaporte de un hombre asiático

Richard Lee, un hombre de 22 años de ascendencia asiática, tuvo un encuentro racista con un robot de IA cuando fue a renovar su pasaporte en el Departamento de Asuntos Internos de Nueva Zelanda.

El software de reconocimiento facial rechazó su foto, alegando que sus ojos estaban cerrados. Lee no se ofendió, atribuyéndolo a la falta de sofisticación de la tecnología. No está equivocado: un portavoz del departamento admitió que aproximadamente el 20% de las fotos de pasaporte son rechazadas debido a errores en el software de reconocimiento facial.

20. El software de reconocimiento criminal falla estrepitosamente

La solución de Amazon, Rekognition, inicialmente destinada a ayudar a las fuerzas del orden, emparejó incorrectamente a 1 de cada 6 atletas de Nueva Inglaterra con una base de datos de criminales conocidos. Incluso determinó que Duron Harmon, tres veces campeón del Super Bowl con los Patriots, era un partido con alguien en la base de datos. Afortunadamente, los funcionarios del gobierno no promovieron el software de IA como una herramienta de aplicación de la ley.

2El software de orientación de anuncios de Google muestra sesgo

Investigadores de Google desarrollaron perfiles de usuario simulados para 500 hombres y 500 mujeres en 2016, luego los probaron para determinar el tipo de anuncios que se mostraban. Los investigadores descubrieron que, a pesar de las similitudes obvias entre los perfiles masculinos y femeninos, el algoritmo mostraba menos anuncios de trabajos de alto rango o ejecutivos a las mujeres.

Parece que la IA aún no puede reemplazar a los humanos

Los avances en inteligencia artificial han creado tecnologías de IA que solo se imaginaban en películas de ciencia ficción. La IA está haciendo grandes avances, pero aún está en sus etapas iniciales. Solo puede tomar decisiones basadas en los datos que recopila, lo que resulta en casos interesantes y a veces aterradores de IA que salen mal.

Como nota adicional, puedes encontrar muchos de los fracasos de la IA mencionados en YouTube, pero los videos pueden no estar disponibles en algunas redes, especialmente si estás en el trabajo o la escuela. Hay una manera fácil de ver cómo la IA intenta y falla mientras estás en tu hora de almuerzo: si descargas una VPN, podrás evitar las molestas restricciones de la red. De esa manera, no te perderás ninguna travesura de la IA.

Obtén PIA VPN

  • ¿Qué es la inteligencia artificial?
  • ¿Cómo funciona la inteligencia artificial?
  • ¿Cuáles son algunos ejemplos de inteligencia artificial en la vida cotidiana?
  • ¿Cuáles son los beneficios y desafíos de la inteligencia artificial?
  • ¿Qué se puede esperar en el futuro de la inteligencia artificial?

La inteligencia artificial ha demostrado tener tanto potencial como fallos. A medida que la tecnología continúa avanzando, es importante abordar los desafíos éticos y legales que surgen con su implementación. Aunque la IA ha tenido algunos accidentes y malfunciones, sigue siendo una herramienta poderosa que puede mejorar muchas áreas de nuestra vida. Sin embargo, es necesario seguir investigando y desarrollando la IA de manera responsable para evitar consecuencias indeseables.

Si quieres conocer otras notas parecidas a Casos de accidentes de ia: hilarantes y horripilantes puedes visitar la categoría Inteligencia.

Subir