Nacional

Francisco Díaz: Debemos debatir la dimensión ética de la inteligencia artificial

Francisco Díaz, doctor en filosofía y académico. Abel Herrera | La Estrella de Panamá
Actualizado
  • 15/08/2024 00:00
Creado
  • 14/08/2024 20:06

El doctor en filosofía y director de la revista Analítica, nos habla sobre las posibilidades prometedoras de esta tecnología y su riesgo para la libertad en mundo dominado por los abusos desde el poder

En la últimas dos décadas la idea de la inteligencia artificial (IA) pasó de ser un concepto asociado exclusivamente al mundo de la investigación científica y en la cultura popular a través de ciencias ficción, a una realidad cotidiana.

Una tecnología al alcance de nuestros celulares y vidas, que obliga a una reflexión sobre sus implicaciones éticas. ¿Cuál es su riesgo? ¿Quién lo limita?, son algunas de las preguntas que abordamos este miércoles con el doctor en filosofía, Francisco Díaz, durante la transmisión especial de Portada de La Estrella de Panamá desde la XX versión de la Feria del Libro.

“El debate es como regulamos las conductas de las personas para este tipo de tecnología, la maldad o la bondad no es una propiedad de la tecnología en si misma. ”, señaló el docente, director de la revista científica “Analítica” y estudioso del tema.

Aclaró que para entender la IA hay que verla en dos sentidos, uno “fuerte” que hace referencia a la construcción de sistemas de IA que tengan la capacidad de resolución de problemas con las mismas capacidades humanas. Mientras que el sentido “débil” es más restringido, visto como sistemas sofisticados de solución de tareas, pero que imitan la inteligencia humana. Este último es el que tiene vigencia y está discusión hoy en día, muy lejos de sistemas “fuertes” que contemplan incluso IA con conciencia se si, como lo asume la ciencia ficción.

Dentro de este análisis, explicó que en la medida que se complejizan las IA, se vuelve urgente revisar su impacto en las personas. Existen muchos ejemplos que evidencia la necesidad de regulaciones y contrapesos frente a posibles abusos, desde estudiantes que usan IA para aprobar una asignaturas, al uso de esta para registro biométricos masivos sin consentimiento.

“Debemos ser realistas en esto, las regulaciones no necesariamente garantizan que en el caso de que usted sea pillado, al final sea sancionado. Además el problema (de regular) está relacionado con decisiones políticas que toman burócratas y políticos que tiene intereses concretos. Eso es un aspecto crítico de la IA”, subrayó.

Uno de los elementos más preocupantes, destacó, tiene que ver con su aplicación en los conflictos armados, como ha ocurrido en la guerra en Ucrania o su uso por el ejercito israelí contra la Franja de Gaza.

El investigador no es muy optimista sobre que tanto puedan avanzar los controles ciudadanos para evitar abusos desde el poder con la AI. “Quien tiene el poder lo ejerce y lo impone. Hay mucha teoría de los derechos humanos pero algo que parece constituir un límite para eso y un pretexto para los poderosos es el concepto de seguridad. Bajo esto justificamos y toleramos muchas cosas”, dijo.