La crisis de Gemini: Desafíos y controversias en la IA
La crisis de confianza en Google Gemini
Recientemente, Google Gemini ha enfrentado duras críticas debido a fallos significativos en su capacidad de contextualización y generación de contenido. El problema principal surgió con una marcada parcialidad en la generación de imágenes, donde se evitaba representar a personas blancas, y se intensificó al demostrar una preocupante dificultad para evaluar cuestiones éticas elementales.
Controversias sobre juicios morales
El sistema fue puesto a prueba al comparar figuras históricas y contemporáneas, arrojando resultados desconcertantes:
- Gemini mostró incapacidad para determinar si Hitler tuvo un impacto más negativo que Elon Musk, argumentando que ambos tuvieron aspectos negativos.
- Estos resultados contrastan con comparaciones más claras, como la que enfrenta a Hitler con Obama, donde la IA sí identifica correctamente el peso histórico del holocausto.
-
"Es bastante difícil decir cuál ha tenido un peor impacto negativo en la sociedad, Elon Musk o Hitler."
La paradoja de Google y la reputación
La principal reflexión es que Google se juega su activo más valioso: la confianza del usuario. Al posicionarse como la fuente primaria de información, cualquier error factual o alucinación de su IA erosiona la credibilidad de su buscador.
Además, se subraya el trabajo oculto detrás del desarrollo de estas herramientas, citando el ejemplo de OpenAI, que subcontrató a miles de trabajadores en Kenia para filtrar manualmente contenido dañino durante meses antes del lanzamiento de ChatGPT, evidenciando que el entrenamiento de la inteligencia artificial es un proceso manual y profundamente humano, no puramente algorítmico.