🧠 ¿Puede la inteligencia artificial avanzar sin perder el alma?
El mayor peligro de la inteligencia artificial no son los algoritmos defectuosos ni las alucinaciones. Es que las decisiones se toman priorizando beneficios sobre ética.

El mayor peligro de la inteligencia artificial no son los algoritmos defectuosos ni las alucinaciones. Es que las decisiones se toman priorizando beneficios sobre ética. Lo técnico se puede corregir. Pero cuando el problema es ético y estructural, se vuelve parte del ADN de las empresas que lideran esta carrera.
En el libro que he estado leyendo últimamente, Supremacy: AI, ChatGPT, and the Race That Will Change the World, una frase resume muy bien cómo muchas de estas compañías operan:
“Google doesn’t move unless it’s a billion-dollar business.”
Esta frase resume el problema central: la innovación en IA está subordinada al retorno financiero inmediato. El caso de Google es ilustrativo. Durante años tuvo a los mejores talentos en IA, pero sin un producto vendible claro, el proyecto se estancó. Las preocupaciones éticas internas fueron silenciadas o descartadas.
Este es un patrón recurrente. Cuando las voces críticas internas comienzan a hablar sobre sesgos, exclusiones o riesgos, el mecanismo de defensa de las empresas se activa. Ya no se trata de proteger la marca, el negocio, el roadmap. La innovación se vuelve funcional a los intereses financieros, y no necesariamente al bien común. Las inversiones se recortan, los experimentos que no muestran retorno se cancelan y los temas complejos se patean para más adelante.
Una gran corporación que dice liderar la ética en IA es como una empresa petrolera hablando de sostenibilidad. Las buenas intenciones chocan con intereses financieros. La ética, cuando entra en tensión con los objetivos de negocio, muchas veces se vuelve solo un discurso para la prensa. Se contratan equipos de AI Ethics, se publican papers, se hacen eventos. Pero dentro de las salas donde se toman las decisiones importantes, la ética suele ser la voz más débil.
Apple ilustra otra dinámica: evitar el escrutinio manteniéndose al margen de la carrera de IA generativa. Nadie le exige una postura ética porque simplemente aún no ha entrado de lleno en esa batalla. Su discurso se ha centrado en la privacidad, sobre todo en productos como Safari. Pero en inteligencia artificial, su silencio también es una estrategia. Por otro lado, empresas como Meta, OpenAI o Anthropic sí están expuestas, porque están empujando modelos al mercado a una velocidad que muchas veces no da espacio para pensar en sus implicancias.
Un problema menos visible, pero igual de preocupante, es que la mayoría de los modelos actuales están entrenados sobre una base de datos desequilibrada. Common Crawl, una de las fuentes más usadas, tiene casi la mitad de sus textos en inglés. Idiomas como el español, el árabe o lenguas africanas tienen una representación mínima. Esto no significa que la IA entienda mal el mundo, pero sí que tiene un sesgo fuerte hacia ciertas formas de hablar, de pensar y de construir realidad. Cuando alguien en Nairobi, Medellín o Bangkok intenta interactuar con un modelo de lenguaje, se enfrenta muchas veces a traducciones literales, respuestas poco relevantes o directamente invisibilización. Y eso tiene consecuencias reales en cómo la IA se adopta globalmente.
La poca transparencia también es otro síntoma de una industria que se está volviendo cada vez más cerrada. Al principio, OpenAI se definía como una organización abierta, con publicaciones constantes, acceso a sus modelos y debates públicos. Pero a medida que sus productos se volvieron más valiosos, la transparencia desapareció. Hoy existe una versión ambigua de que datos y como ChatGPT toma decisiones internas. Otras empresas han sido más explícitas en su opacidad, e incluso ya enfrentan demandas por haber utilizado contenido con derechos de autor para entrenar sus modelos. En vez de enfrentar esta discusión de frente, se responde con abogados y NDAs.
Y cuando alguien intenta alzar la voz desde dentro, como fue el caso de Timnit Gebru en Google, la respuesta es simple: muchas gracias por tus servicios. Despedir a quien señala problemas éticos dice mucho más sobre la empresa que sobre la persona. La señal es clara: no queremos que se frene la máquina. Pero lo peligroso de esto es que los modelos siguen evolucionando, mientras que la reflexión crítica se debilita. Cada vez hay más ejemplos de modelos que reproducen comentarios racistas, discriminatorios o directamente peligrosos.
Esto no solo daña la reputación de la empresa, sino que pone en riesgo a millones de personas que usan estas herramientas sin saber exactamente cómo funcionan.
Lo más irónico es que muchos usuarios confían más en la IA de lo que confían en sus profesores, jefes o incluso en ellos mismos. Un estudio citado en el libro mostraba que las personas que creen en Dios o piensan frecuentemente en él tienden a confiar más en sistemas como ChatGPT. Como si se tratara de una autoridad moral, de una fuente incuestionable. Y eso es tremendamente peligroso. Porque la IA no tiene contexto, ni conciencia, ni criterio propio. Genera texto, predice la siguiente palabra, eso es todo. Pero si no enseñamos a usarla con espíritu crítico, se convierte en un oráculo falso.

Finalmente, está el tema del secretismo. Es lógico que las empresas protejan su propiedad intelectual. Pero cuando el desarrollo de la inteligencia artificial concentra tanto poder en tan pocas manos, no puede ser solo una conversación privada entre ejecutivos. No se trata de que todo sea democrático, ni de que el código esté siempre abierto. Pero sí de que exista un compromiso mínimo con la conversación pública, con el impacto social, con la posibilidad de rendir cuentas. Lo contrario es darle demasiado poder a personas que no elegimos, y que muchas veces no están dispuestas a cuestionarse a sí mismas.
Hay una paradoja muy fuerte en todo esto.
Las empresas que prometen cambiar el mundo con IA suelen ser las que menos dispuestas están a escuchar lo que ese mundo tiene que decirles. Si queremos avanzar con inteligencia artificial sin perder el alma, necesitamos más que GPUs y talento técnico.
Se necesitan mecanismos concretos: auditorías independientes, equipos de ética con poder de veto, y transparencia por defecto sobre los datos de entrenamiento. Porque si no, lo que estamos construyendo no es inteligencia… es solo poder envuelto en palabras bonitas.
Notas al cierre
- Esta reflexión se basa en parte en Supremacy: AI, ChatGPT, and the Race That Will Change the World. Te la recomiendo si quieres saber más sobre como OpenAI y Google compiten por liderar el desarrollo de IA y atraer a los mejores investigadores.
Te dejo una pregunta para reflexionar aún más:
Antes de que estos sistemas se vuelvan aún más poderosos, ¿no deberíamos exigir respuestas sobre cómo se entrenan, qué sesgos tienen y quién se hace responsable de sus consecuencias?