Academia Ciencia Tecnología

Hay que ponerle límites a la IA

DGCS UNAM

• Jorge Enrique Linares Salgado dijo que esta tecnología no deberá tomar nunca decisiones cruciales

Los sistemas de inteligencia artificial (SIA) no deben reemplazar la cognición humana y tienen que estar supervisados por las personas y subordinados a ellas, consideró el académico y exdirector de la Facultad de Filosofía y Letras (FFyL), de la UNAM, Jorge Enrique Linares Salgado.

En este ámbito, los individuos siempre deben actuar y decidir, añadió en el Seminario TIC, organizado por la Dirección General de Tecnologías de la Información y Comunicación, donde se abordó el tema Los desafíos de la ética en la inteligencia artificial.

El académico adscrito al Colegio de la FFyL refirió que actualmente los SIA superan a la inteligencia humana en el procesamiento de datos masivos o big data, porque lo hacen casi de forma instantánea.  “Ninguna persona puede procesar tan rápido la información, como ya lo hacían las computadoras, y ahora lo hacen esos sistemas con algoritmos, que pueden clasificar, ordenar, comparar y, en ese sentido, comienzan a tomar decisiones”.

El experto en ética de la ciencia y la tecnología, y filosofía de la tecnología, explicó que la IA, o cognición humana simulada, replica por medios tecnológicos y digitales los comportamientos y capacidades inteligentes que, normalmente, poseemos los seres humanos.

Dichos sistemas se pueden utilizar para mejorar todo tipo de servicios, estudios, cálculos, planeación y organización con herramientas digitales; propiciar un nuevo modelo de servicios sociales mediante bases de datos y una red de asistencia pública; generar información de interés para investigaciones y monitoreo en ámbitos públicos o privados; o establecer bases de datos, a fin de desarrollar sistemas comerciales con la información de usuarios.

Linares Salgado señaló que no hay que perder de vista que los sistemas de IA son mercantiles, incluso son bienes de capital y están en un mercado capitalista. La mayoría de los desarrollos e innovaciones provienen de empresas privadas y no de instituciones públicas.

El universitario reiteró que la creación tecnológica e industrial ha tenido una lógica de crecimiento imparable y de aceleración a partir del siglo XX, y eso impide que las personas podamos evaluar con detenimiento los riesgos que se producen. “Se invisibilizan y a veces es difícil descubrirlos hasta que se convierten en daños”.

Entre los desafíos y riesgos de la inteligencia artificial están que las máquinas y los SIA pueden restringir la autonomía de las personas, afectar su capacidad de decisión y razonamiento, o influir en la política y en la toma de decisiones empleando sesgos discriminatorios en sus algoritmos.

Asimismo, obstruir derechos fundamentales como el de la privacidad y la intimidad; suplantar a trabajadores humanos en tareas automatizables; exacerbar las desigualdades sociales y económicas; dañar el clima y el ambiente con el uso desproporcionado de energía y agua; así como mayor contaminación.

Pero el principal, consideró el especialista, es que los SIA no sean en el futuro tan inteligentes, adaptables, sensibles, empáticos y deliberativos como puede ser la mayoría de los seres humanos.

Citó que de acuerdo con la Organización para la Cooperación y el Desarrollo Económicos, 25 por ciento de los trabajos convencionales serán sustituidos por sistemas de IA: se crearán nuevos empleos, pero la mayoría subordinados al mantenimiento de los SIA. Parece un hecho que reemplazarán las labores repetitivas, peligrosas y de tareas cognitivas básicas, que hoy realiza la mayoría de las personas.

Esos sistemas tienen consecuencias ético-políticas intencionales o no intencionadas: “no tienen conciencia o mala fe, como los humanos, pero pueden fallar”. Los errores y daños que ocasionen los SIA podrían ser graves y tener consecuencias, por lo que se requiere transparencia, responsabilidad y rendición de cuentas de quienes sean los encargados de su diseño, construcción y operación.

La IA, recalcó Linares Salgado, no deberá nunca tomar decisiones cruciales (de vida o muerte) o de gran impacto social y ambiental reemplazando a los seres humanos, ni cancelar o eludir el debate y la deliberación democrática y la participación ciudadana en la toma de decisiones.

Entre los principios éticos de esta herramienta, “todos igualmente indispensables”, se encuentran los de protección a la privacidad y la intimidad; de responsabilidad y solidaridad; de evaluación y participación democrática, justicia y equidad; inclusión de la diversidad; de preservación de la responsabilidad humana, y desarrollo sustentable, de acuerdo con la Declaración de Montreal para el Desarrollo Responsable de la IA.