Algunas problemáticas que enfrentan estas tecnologías van desde los sesgos hasta la escasa regulación
Si alguna vez ha dicho que hay “Inteligencias Artificiales” o “IA’s” en plural, déjeme decirle que está mal. La Inteligencia Artificial es una ciencia la cual tiene diferentes áreas y recursos que responden a necesidades y enfoques diversos. Por ejemplo, hay unas que se dedican al aprendizaje mientras que otras al lenguaje, por nombrar algunas.
Las herramientas más populares suelen ser aquellas con las que se puede interactuar directamente, como los asistentes virtuales (ChatGPT o Microsoft Copilot) que no solo responden preguntas, sino que también pueden generar imágenes, textos, videos, etc.
Este uso cada vez más común y global ha contribuido a la desinformación del tema, pues se suele creer que toda IA tiene autonomía (o sea que funciona sin un supervisor), cuando en realidad la mayoría tiende a ser automática (que funciona a base de comando y mecanismos ya establecidos). Los últimos son usuales en áreas donde se analizan grandes cantidades de datos.
A lo largo de los años han surgido algunos problemas que se producen principalmente por la información con la que fueron creadas estos sistemas, pues usualmente su base de datos está sesgada por la mirada del creador u supervisor a cargo del proyecto.
Tal es el caso del sistema de Microsoft, llamado Tay. Este era una IA autónoma que interactuaba con usuarios en X (antes llamada Twitter) y que fue desconectada en 2016, luego de que la acusasen de “volverse” sexista y xenófoba.
Hay que entender que el sistema no tiene conciencia, sino que actúa y responde conforme al conocimiento que obtuvo de la base de datos que le dieron.
“Si bien yo puedo enseñarle a la máquina que haga cierto análisis, el tema o problemática que se produce a veces es que los datos que se utilizaron, de los que aprendió, están sesgados. Entonces si es que hay racismo, no es que la IA se puso creativa y se volvió racista, sino que los datos ya estaban sesgados”, comenta John Atkinson, doctor y profesor en Inteligencia Artificial.
Esto suele ocurrir sobre todo en la creación de imágenes, pues la IA va a crear una foto conforme a los datos y sesgos característicos establecidos previamente, como el lugar geográfico o ciertos colores de piel que debe mostrar. Atkinson dice que es muy difícil que la base de datos no esté sesgada, ya que es parte de la naturaleza humana tener sesgos.
Una posible solución que nos cuenta el profesor es que: “Cuando se le enseñe a la IA no hay que llenarla de toda la información, sino que hay que alimentarla con datos balanceados y distribuirla de la misma manera. Pero es difícil de regular sin dejar nada de lado”.
El camino más viable por el momento serían la regulación constante y la transparencia de datos e información.