La inteligencia artificial suele ayudar a las redes sociales. Pero los errores pueden causar un daño significativo. Facebook también tuvo que experimentar esto. Porque la inteligencia artificial de Facebook puso a los negros en pie de igualdad con los monos.
Uno de los mayores problemas con el uso de inteligencia artificial (IA) es el sesgo. Se supone que la tecnología funciona como el cerebro humano. Pero cuando se entrena la IA, los sesgos se forman una y otra vez. En particular, las minorías a menudo se ven desfavorecidas o discriminadas.
Según el New York Times, ahora Facebook también ha tenido que sufrir las consecuencias de tal ofensa.
Así es como se distingue la IA de Facebook
En el contexto del video del British Daily Mail, hubo una confusión de algoritmos discriminatorios. Porque el algoritmo de Facebook confundió a los negros con los monos.
El video se titula «El hombre blanco llama a la policía por los negros en el puerto». Después de reproducir el video, se les preguntó a los usuarios si les gustaría seguir viendo el video de los primates.
Fue un “error claramente inaceptable”, dijo un portavoz de Facebook en un comunicado. El grupo puso fuera de servicio el software correspondiente.
Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas.
¿Cómo se descubrió la IA racista de Facebook?
El ex empleado de Facebook resuelve el caso real. Publicó una captura de pantalla en el foro de comentarios de Facebook. El gerente de producto de Facebook del departamento de video declaró el incidente como «inaceptable». Prometió resolver el problema.
Un ex empleado le dijo a The New York Times que abordar el racismo no es lo suficientemente importante para Facebook.
Facebook no puede seguir cometiendo errores y simplemente disculparse.
Facebook no es el único niño con problemas de IA
Pero Facebook no es el único gigante de las redes sociales que lucha contra las trampas del reconocimiento facial. Twitter también necesita mejorar aquí una y otra vez.
A principios de mayo de 2022, el servicio de mensajes cortos actualizó la sección de fotos de su servicio de noticias. Esta decisión fue precedida por críticas al algoritmo de encuadre. En el corte automático, los blancos se mostraban con más frecuencia que los negros.
¡Guía gratuita de LinkedIn!
Suscríbase ahora a nuestro boletín semanal compacto de BT. Como agradecimiento, te damos nuestra guía de LinkedIn.
También incitó a Twitter a traer expertos externos para investigar problemas en su propio algoritmo como parte del Algorithmic Bias Bounty Challenge. Resultó que AI prefiere rostros jóvenes y delgados con piel clara.
A través de desafíos como Algorithmic Bias Bounty Challenge, Twitter quiere ayudar a construir una comunidad para los aspectos éticos de la inteligencia artificial. Una propuesta que Facebook también debería tomar como ejemplo.
También interesante: