Los fallos del chatbot no solo revelan un error de cálculo, sino que también nos invita a cuestionar el desarrollo de la inteligencia artificial
El reciente despliegue de Gemini, el chatbot insignia de inteligencia artificial de Google, resultó ser un campo minado de críticas y controversias. La ambición de la empresa por erradicar los sesgos en su IA terminó por generar uno altamente parcial, una situación que ha servido de munición para las críticas de figuras como Elon Musk, quienes acusan a las grandes tecnologías de caer en esquemas excesivamente preocupados por la corrección política.
Este episodio recuerda al breve bloqueo por parte de Twitter de una historia del New York Post sobre el portátil de Hunter Biden en 2020, un movimiento que fue rápidamente capitLos comentarios no se han hecho esperar, con observadores del mundo de la cultura de internet como Max Read ofreciendo evaluaciones agudas sobre el asunto. La pregunta central parece desplazarse de “¿cómo o por qué ocurrió esto?” a “¿qué es lo que realmente esperamos que hagan nuestros chatbots?”.reaalizado por figuras como Ted Cruz, señalando el error como una muestra de sesgo en las grandes plataformas tecnológicas.
Para Read, la idea de depender de una IA para generar comparaciones morales entre figuras históricas resulta ajena y poco práctica, resaltando la inusualidad de la situación en que Gemini se negó a posicionar a Adolf Hitler como peor que Elon Musk.
El caso de Gemini se erigió como un gran desafío para Google, considerando las altas expectativas puestas en esta tecnología como una apuesta hacia el futuro. A pesar de que la mayoría fuera del ecosistema de la compañía podría no estar al tanto de estos contratiempos, internamente es visto como un considerable traspié.