La expansión de las inteligencias artificiales (IA) está generando transformaciones aluvionales. A partir sobre todo del desarrollo y la puesta en disponibilidad masiva de modelos de lenguaje grandes como ChatGPT o LaMDA, se ha producido un impacto radical hacia un nueva geopolítica. Los riesgos señalados por la literatura en relación con la escala meso son: los sesgos, los datos inadecuados o mal interpretados, la suplantación de identidad, el deep fake o la desinformación (ya provenga de humanos o de máquinas), la vigilancia, la manipulación del comportamiento y la securitización del conocimiento (que significa que el conocimiento experto queda en manos de cada vez menos personas). En todos los casos hablamos de riesgos para la calidad democrática que están siendo investigados desde perspectivas, disciplinas y ámbitos poco comunicados entre sí.
La Inteligencia Artificial (IA), no alude a una tecnología, sino que se trata de “metatecnologías”. No constituyen un dispositivo técnico, sino un “mundoambiente” que comprende tecnologías de alto riesgo y requieren de un tratamiento acorde en su ciclo de vida; las IA generativas y en particular los LLM no son sólo Inteligencia Artificial, sino también “Sociedad Artificial”. Esto último, requiere un enfoque desde la ética organizacional de la IA y desde el “enfoque sistémico”. Actualmente las tecnologías del ecosistema ya no son -necesariamente- instrumentos que podemos elegir y usar según nuestras necesidades, sino que se han vuelto indispensables en la vida cotidiana, o bien, para guiarnos en una ciudad, hasta iniciar un trámite de documentación obligatoria. Esto significa que, en relación con los usuarios, no es suficiente un enfoque que las aborde desde la “perspectiva de la instrumentalidad”, a saber, que se agote en la relación sistema-usuario individual.
En el marco de los “Desafíos e impactos de la inteligencia artificial” Flavia Costa se ha preguntado críticamente por qué los expertos que provienen de las ciencias informáticas y las ingenierías solo suelen identificar en el campo de las ciencias sociales mecanismos jurídicos. En suma, dado que en muchos casos las tecnologías de IA pueden ser de alto riesgo, la aseguración (safety) debe ser preventiva; debe estar inscripta en el propio sistema. En los sistemas sociotécnicos complejos, la evaluación de riesgos y el monitoreo de seguridad es parte de todo el ciclo de vida del sistema. La seguridad de la IA es un campo emergente en el que hay poca casuística, será importante seguir de cerca el proceso que está llevando adelante el monitor de incidentes de IA que recientemente puso en marcha la OCDE. Si la IA puede ser de alto riesgo en áreas de experiencia críticas para la población, la perspectiva que necesitamos va más allá de las recomendaciones voluntarias y códigos de buenas prácticas, apelando a un enfoque de la seguridad sistémica. Por fin, se requiere complementar la ética con un enfoque sistémico, que reponga, allí donde hay alto riesgo, las mediaciones que la aceleración se saltea, que establezca procedimientos de revisión transparentes, estructuras de rendición de cuentas vinculantes, documentación de modelos y conjuntos de datos y auditoría independiente.
Por fin, aunque el enfoque jurídico-normativo es fundamental para abordar el impacto de las IA, ya que estas metatecnologías pueden afectar derechos consagrados (a la privacidad, a la propiedad intelectual, a la protección del trabajo, entre otros), no es suficiente si de lo que se trata es de alcanzar una IA fiable, y segura (safe). Porque el enfoque jurídico señala el límite exterior de la Ley; allí donde, si un agente infringe la ley, puede ser legítimamente castigado. En caso de incidente, actúa a posteriori buscando causas y responsables, y emite sanciones, multas, penalidades. Mientras que el enfoque sistémico se enfoca en estudiar el incidente para prevenir y evitar que vuelva a repetirse. Busca comprender dónde estuvo la falla para fortalecer las defensas del sistema. Es un enfoque que, en caso de incidente, se interroga por los factores desencadenantes, identifica otros factores relacionados con el accidente, y emite recomendaciones
Mauro Salazar J. Doctorado en Comunicación. Universidad de la Frontera.
Nota. La autora impartirá una conferencia titulada “IA: desafíos teóricos, políticos y epistemológicos para las ciencias sociales”. La actividad será el Jueves 16 de mayo, de 10 a 13.00 horas (Chi). Universidad de la Frontera. Biblioteca Central y vía plataforma digital.
Link. : https://www.youtube.com/watch?v=bimDEItJfAg
Flavia Costa es Dra. en Ciencias Sociales por la Universidad de Buenos Aires, investigadora del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). También es profesora asociada del Seminario de Informática y Sociedad (UBA). Es autora de numerosas publicaciones sobre arte, tecnología y sociedad, así como sobre las derivas contemporáneas de la bio-tecno-política. Su último libro se titula Tecnoceno. Algoritmos, biohackers y nuevas formas de vida (Taurus, 2021). En 2023 dirigió la investigación “Desafíos e impactos de la inteligencia artificial” en la Universidad de Buenos Aires.


