
Por Dr. Luis Sujatovich* –
No sabemos cuánto tiempo nos llevará dominar el uso eficiente de la inteligencia artificial generativa sin dañar el planeta ni poner en riesgo las democracias y sus instituciones. Mientras el debate crece —con cierta ventaja para quienes ven en su implementación una señal inequívoca de la decadencia humana y su eventual ruina—, se vuelve necesario formular algunas consideraciones modestas sobre su uso en las labores cotidianas.
De buscar respuestas a confiar en ellas
Así como Google desplazó al diccionario, a la enciclopedia y a los manuales escolares o técnicos, es evidente que la inteligencia artificial está comenzando a reemplazar a los buscadores. Sin embargo, este cambio trae consigo un desafío crucial: si reducimos nuestra relación con estas tecnologías a una transacción efímera, aunque repetitiva, corremos el riesgo de quedar atrapados en una lectura superficial de su impacto. Esta interpretación equivocada podría llevarnos a suponer —erróneamente— que carece de errores y que su funcionamiento no merece mayores reflexiones.
Lo mismo ocurre cuando se utiliza la IA como herramienta educativa sin el involucramiento del estudiante. Confiar en que el aprendizaje se resume en responder con solvencia un cuestionario es caer en una falacia que empobrece la experiencia formativa.
La historia en disputa: cuando la IA interpreta
La dimensión más compleja y significativa de la inteligencia artificial emerge cuando buscamos algo más que datos: queremos explicaciones, contexto, interpretaciones. Es allí donde se revela su potencial para moldear una visión del mundo, sus relaciones y los factores de poder que lo atraviesan.
Por ejemplo, si preguntamos si las islas Malvinas son un archipiélago, la IA responderá afirmativamente, sin controversia. Pero si preguntamos por su situación política, la supuesta neutralidad científica cede terreno a los sesgos. ChatGPT, Copilot y DeepSeek coinciden en describirlas como “territorio en disputa, administrado por Gran Bretaña y reclamado por Argentina”. No hay referencia alguna al colonialismo, y la historia se reduce a una sucesión de hechos sin trama social, económica ni cultural. Cuando promovemos que la IA se explaye, la pulcritud de los datos queda atrapada en el barro de la historia. Y allí tampoco existe la neutralidad.
La IA quiere gustarte (y eso debería inquietarte)
Es importante destacar que los algoritmos buscan evitar que nos sintamos incómodos. Cuando detectan que encontramos un sesgo que nos desagrada, intentan sustituirlo por otro que nos agrade. El mayor riesgo que enfrentan las plataformas, redes sociales y también la IA, es que —por alguna razón evitable— dejemos de interactuar con ellas. Por eso, es común que los algoritmos ajusten sus respuestas para resultar más agradables.
En el caso de las islas Malvinas, por ejemplo, las IA ofrecieron una forma sutil de concesión: comenzaron a evitar ciertos términos y a usar otros que resultaran más agradables al interlocutor. Esto, que puede sentirse como un triunfo, en realidad es el primer paso hacia la construcción de un filtro burbuja personalizado. Ese doble peligro consiste, por un lado, en ignorar el sesgo estructural —el que aparece por defecto en cada pregunta— y, por otro, olvidar que nosotros también operamos desde un sesgo propio. No podemos carecer de ellos, pero tomar conciencia de su existencia puede ayudarnos a confiar menos tanto en nuestras ideas como en las que nos provee la inteligencia artificial.
*Investigador – Profesor Universitario – UDE – Universidad Siglo 21 –
Fuente de la imagen: https://es.globalvoices.org