Hay que ponerle límites a la IA

Recientes

Oro y plata de yacimiento oaxaqueño viajan como partículas suspendidas en fluidos

Un grupo de investigadores de los institutos de Geología (IGl) y de Geociencias (IGc) de la UNAM, así como del Consejo Superior de Investigaciones Científica...

La elección del próximo Papa: ¿quién tomará el timón del Vaticano?

Luego del fallecimiento del Papa Francisco, todas las miradas se dirigen al cónclave que deberá elegir a su sucesor, el cual es uno de los eventos más solemn...

Sheinbaum exige retirar spot antiinmigrante pagado por EE.UU.

Claudia Sheinbaum solicitó retirar un spot televisivo financiado por EE.UU. en el que Kristi Noem lanza un mensaje contra la migración indocumentada​s. Las a...

El Papa Francisco falleció a causa de un derrame cerebral

La Oficina de Prensa del Vaticano confirmó esta mañana...

Fallece el Papa Francisco: un legado de humildad y transformación

El papa Francisco, nacido Jorge Mario Bergoglio, falleció el lunes 21 de abril de 2025 a las 7:35 a.m. en su residencia de la Casa Santa Marta en el Vaticano...

Compartir

Los sistemas de inteligencia artificial (SIA) no deben reemplazar la cognición humana y tienen que estar supervisados por las personas y subordinados a ellas, consideró el académico y exdirector de la Facultad de Filosofía y Letras (FFyL), de la UNAM, Jorge Enrique Linares Salgado.

En este ámbito, los individuos siempre deben actuar y decidir, añadió en el Seminario TIC, organizado por la Dirección General de Tecnologías de la Información y Comunicación, donde se abordó el tema Los desafíos de la ética en la inteligencia artificial.

El académico adscrito al Colegio de la FFyL refirió que actualmente los SIA superan a la inteligencia humana en el procesamiento de datos masivos o big data, porque lo hacen casi de forma instantánea. “Ninguna persona puede procesar tan rápido la información, como ya lo hacían las computadoras, y ahora lo hacen esos sistemas con algoritmos, que pueden clasificar, ordenar, comparar y, en ese sentido, comienzan a tomar decisiones”.

El experto en ética de la ciencia y la tecnología, y filosofía de la tecnología, explicó que la IA, o cognición humana simulada, replica por medios tecnológicos y digitales los comportamientos y capacidades inteligentes que, normalmente, poseemos los seres humanos.

Dichos sistemas se pueden utilizar para mejorar todo tipo de servicios, estudios, cálculos, planeación y organización con herramientas digitales; propiciar un nuevo modelo de servicios sociales mediante bases de datos y una red de asistencia pública; generar información de interés para investigaciones y monitoreo en ámbitos públicos o privados; o establecer bases de datos, a fin de desarrollar sistemas comerciales con la información de usuarios.

También te puede interesar:  Superar la sequía requiere de varios años de lluvias intensas

Linares Salgado señaló que no hay que perder de vista que los sistemas de IA son mercantiles, incluso son bienes de capital y están en un mercado capitalista. La mayoría de los desarrollos e innovaciones provienen de empresas privadas y no de instituciones públicas.

El universitario reiteró que la creación tecnológica e industrial ha tenido una lógica de crecimiento imparable y de aceleración a partir del siglo XX, y eso impide que las personas podamos evaluar con detenimiento los riesgos que se producen. “Se invisibilizan y a veces es difícil descubrirlos hasta que se convierten en daños”.

Entre los desafíos y riesgos de la inteligencia artificial están que las máquinas y los SIA pueden restringir la autonomía de las personas, afectar su capacidad de decisión y razonamiento, o influir en la política y en la toma de decisiones empleando sesgos discriminatorios en sus algoritmos.

Asimismo, obstruir derechos fundamentales como el de la privacidad y la intimidad; suplantar a trabajadores humanos en tareas automatizables; exacerbar las desigualdades sociales y económicas; dañar el clima y el ambiente con el uso desproporcionado de energía y agua; así como mayor contaminación.

Pero el principal, consideró el especialista, es que los SIA no sean en el futuro tan inteligentes, adaptables, sensibles, empáticos y deliberativos como puede ser la mayoría de los seres humanos.

También te puede interesar:  La Inteligencia Artificial debe utilizarse con prudencia: OMS

Citó que de acuerdo con la Organización para la Cooperación y el Desarrollo Económicos, 25 por ciento de los trabajos convencionales serán sustituidos por sistemas de IA: se crearán nuevos empleos, pero la mayoría subordinados al mantenimiento de los SIA. Parece un hecho que reemplazarán las labores repetitivas, peligrosas y de tareas cognitivas básicas, que hoy realiza la mayoría de las personas.

Esos sistemas tienen consecuencias ético-políticas intencionales o no intencionadas: “no tienen conciencia o mala fe, como los humanos, pero pueden fallar”. Los errores y daños que ocasionen los SIA podrían ser graves y tener consecuencias, por lo que se requiere transparencia, responsabilidad y rendición de cuentas de quienes sean los encargados de su diseño, construcción y operación.

La IA, recalcó Linares Salgado, no deberá nunca tomar decisiones cruciales (de vida o muerte) o de gran impacto social y ambiental reemplazando a los seres humanos, ni cancelar o eludir el debate y la deliberación democrática y la participación ciudadana en la toma de decisiones.

Entre los principios éticos de esta herramienta, “todos igualmente indispensables”, se encuentran los de protección a la privacidad y la intimidad; de responsabilidad y solidaridad; de evaluación y participación democrática, justicia y equidad; inclusión de la diversidad; de preservación de la responsabilidad humana, y desarrollo sustentable, de acuerdo con la Declaración de Montreal para el Desarrollo Responsable de la IA.

Comentarios