Dr. Luis Sujatovich – UDE – Universidad Siglo 21 –
El sesgo informativo es uno de los grandes problemas que enfrenta la sociedad en su vinculación con la red. El filtro burbuja, como lo denominó Pariser, constituye una traba muy importante para la construcción el diálogo entre opuestos, en decir, no habilita el sostenimiento de un fundamento de la democracia. Sin embargo, estas preocupaciones desaparecen cuando se hace referencia a la inteligencia artificial. Como si ambas no estuvieran articuladas.
El chat GPT es, sin dudas, la figura estelar del momento, nadie que se precie como vanguardista se puede dar el lujo de desconocerlo. Incluso ya hay cursos y grandes conferencias para aprovecharlo, aunque haya pasado tan poco tiempo desde su lanzamiento y los desarrolladores aseguren que aún están haciendo ajustes. La proporción de farsantes es aún mayor que la de posibilidades de uso de los algoritmos, lamentablemente.
La fascinación que ha generado su uso es insoslayable: hemos perdido el monopolio de la creación de textos y no podemos asumirlo. Pero, cabría preguntarse, ¿de dónde provienen los insumos que hacen posible las veloces respuestas que ofrece a cada usuario? De Internet, porque su programación le permite recopilar todo tipo de información acerca del tema consultado y ofrecer una respuesta pertinente en segundos. Por lo tanto, no crea nada sino más bien sintetiza y produce un texto a partir de los preexistentes, como cualquiera de nosotros, pero sin creatividad. La cuestión es, más allá de las diferencias que puedan encontrarse y que quizás vayan disminuyendo, es que aquello que nos ofrece proviene de otras fuentes que a su vez fueron elaboradas por humanos. Y si aceptamos, con preocupación, que la sobre carga de subjetividad está suscitando la proliferación de discursos moldeados a gusto de quien los crea, no es difícil suponer que el chat, a pesar del rigor que puedan tener sus algoritmos, se basa en el producto de nuestra subjetividad.
El chat nos sirve un texto que compila subjetividades y, gracias a la legitimidad que goza la tecnología digital, se vuelve neutral. O al menos esa sería la pretensión de quienes lo aprovechan para señalarnos sus ventajas, soslayando toda dimensión social, laboral, económica y cultural que podría obstaculizar su expansión. No obstante, la insistente publicidad que se multiplica en la red, hay quienes buscan llamar la atención sobre esta particularidad entre fuentes parciales y reelaboración de información. Al respecto, Kitchlew, investigadora de IA residente en Pakistán, sostiene que “los modelos aprenden los sesgos que se introducen en el sistema y, si siguen aprendiendo de los contenidos que ellos mismos generan, estos sesgos y errores se amplificarán y los modelos podrían volverse más tontos”. La nota aparecida en el sitio dw.com, un sitio alemán de información sobre tecnología también refiere algunas conclusiones similares de un equipo canadiense.
El chat GPT tampoco puede zafarse de la impronta contemporánea de la opinión como género dominante y eso no le quita validez, sino que lo hace aún más partícipe de nuestra sociedad, le otorga un leve rasgo humano.
Aunque no se pueda apreciar con facilidad, detrás de todo algoritmo está la cultura y, por lo tanto, la subjetividad.
Imagen: https://www.pexels.com/