Columnistas

Política criminal, delincuencia e inteligencia artificial

Actualizado
  • 13/05/2024 00:00
Creado
  • 11/05/2024 10:33

En el último año, ChatGPT, Gemini, Galaxy AI y similares han sido temas constantes en las noticias, pues estamos inmersos en la integración día a día de tecnologías emergentes que anteriormente conocíamos por novelas o cine de ciencia ficción como los famosos droides de Star Wars o replicantes de Blade Runner.

En lo que se refiere a la implementación de inteligencia artificial considerando las implicaciones éticas relacionadas con su diseño, uso e implementación no podemos dejar pasar lo peligroso que es el uso de deepfakes, aquellos archivos de video, imagen o voz originales que han sido modificados a través de un sistema de inteligencia artificial el cual puede suplantar y hacer pasar por real cualquier cosa que se desee producir, sea solo en audio (deep voice) o en video (deepfake).

Las tecnologías antes mencionadas, lamentablemente, son empleadas para cometer delitos, facilitando el trabajo a delincuentes y crimen organizado. Empleado en actuaciones aún más perversas donde lo que anteriormente hubiéramos llamado “fotomontaje”, reemplazan el rostro de un video pornográfico existente por el de personas de farándula o una persona específica utilizados para la llamada sextorsión o actos relativos a acoso por redes sociales producidos como pornografía deepfake, cosa que en la actualidad se está discutiendo tipificar en países como Inglaterra o Alemania.

Para luchar contra la desinformación se requiere ciudadanos capaces de reconocer este tipo de videos, pues se utilizan también para falsear ataques contra el honor de terceros, tratando de crear una predisposición negativa contra quien supuestamente inicia ataque falso. También existe riesgo para ciudadanos, empresas y entidades públicas, pues no tener protocolos para distinguir y crear barreras adicionales ante los peligros de los deepfakes puede llevar a pérdidas millonarias.

Y es que con esfuerzo se puede violar un sistema de reconocimiento biométrico con algo tan simple como una foto si no está bien calibrado, también mediante videollamada, pues a un oficial financiero le puede solicitar un directivo autorizado, refrendar y agilizar una transferencia siendo esta llamada en realidad generada desde un sistema de deepfake, cosa que ya ocurrió en Hong Kong, dejando una pérdida de casi 24 millones de euros

En cuanto a la responsabilidad penal, las respuestas de nuestra legislación dependen del tipo penal cometido, sea estafa cuando afecte el patrimonio de una persona o empresa mediante ese engaño o de un delito financiero cuando el producto del delito sea sobre fondos en una entidad autorizada en nuestro país, mientras que el uso no autorizado de imágenes para sextorsión, ciberbulliying o acoso todavía están en la Asamblea pendientes de discusión.

Ante los riesgos que implica la implementación de estas tecnologías de inteligencia artificial para cometer delitos, no importa el tamaño de la institución, sea empresa pública o privada no puede dejarse al azar la seguridad informática; por más ventajas que implica la inteligencia artificial es clave que los usuarios seamos recelosos con el tratamiento de datos, contraseñas, que tengamos confianza en los procesos relacionados con su uso.

El autor es profesor de derecho penal y criminología