Plus Ethics: cómo frenar la ciberdelincuencia a través de la Inteligencia Artificial

Ofrecer conocimientos aplicados a la evaluación del impacto ético, social y jurídico propio de investigaciones científicas y tecnológicas en materia de Tecnologías de Información y Comunicación (TICs). También al desarrollo e implementación de programas de cumplimento penal para empresas y organizaciones públicas y privadas. Estos son algunos de los propósitos que persigue la empresa Plus Ethics del Parque Científico de la Universidad Miguel Hernández de Elche (UMH).

Promovida por el director de Crímina, el centro de investigación de la UMH para el estudio y la prevención de la delincuencia, Fernando Miró. Y por el investigador y profesor del Centro Crímina Francisco Javier Castro, director ejecutivo de la compañía.

La esteganografía se utiliza para esconder datos incriminatorios en archivos multimedia digitales de apariencia inocente como imágenes, vídeos, audios y archivos de texto. Con el objetivo de facilitar a las agencias europeas de seguridad (LEA) la detección de estos archivos, la spin-off ilicitana participa en un programa internacional, coordinado por la Real Academia Militar de Bélgica. Concretamente, Plus Ethics será la responsable de monitorizar los aspectos éticos y legales del proyecto.

Proyecto UNCOVER

Esta iniciativa, denominada UNCOVER, está financiada con siete millones de euros, se puso en marcha el pasado 1 de mayo y tendrá una duración de tres años. En el proyecto participarán, además de Plus Ethics, varias agencias europeas de seguridad, institutos forenses y de investigación. Así como empresas industriales, entre otros. A través del estegoanálisis, una disciplina dirigida a la detección de mensajes ocultos, estos agentes trabajarán de manera conjunta para mejorar la capacidad de las LEA de localizar e interceptar este tipo de datos.

Para lograr su objetivo, entre otras acciones, los participantes de UNCOVER mejorarán los métodos existentes para llevar a cabo operaciones de estegoanálisis en medios digitales. Y trabajarán para que los resultados obtenidos sean admisibles en los tribunales europeos. También, analizarán las necesidades y requisitos de las LEA para detectar e investigar la esteganografía. Consolidando la información relevante. Y la centralizarán en una base de datos intuitiva para las Agencias de Aplicación de la Ley. Una vez llevadas a cabo estas tareas, este consorcio formado por 22 socios, entre ellos Plus Ethics, validarán y difundirán los resultados del proyecto y prepararán un plan de explotación.

Carmetry: Inteligencia Artificial para frenar los contagios por covid-19

Inteligencia Artificial

Pero este no es el único gran proyecto a nivel europeo en el que se encuentra recientemente involucrada la compañía ilicitana. Ya que también participa en STARLIGHT (Sustainable Autonomy and Resilience for LEAs using AI against High priority Threats). Una iniciativa cuyo objetivo es proporcionar a las fuerzas de seguridad las herramientas, los datos y la protección adecuada para que incorporen la Inteligencia Artificial (IA) en sus organismos. Concretamente, el reto de Plus Ethics dentro de STARLIGHT, financiado con 17 millones de euros, es analizar la aceptabilidad de la IA por parte de las agencias de seguridad europeas y gestionar los riesgos de discriminación y sesgos algorítmicos.

Este proyecto europeo, que se enmarca en la convocatoria Horizon 2020, arrancará el próximo mes de octubre y tendrá una duración de dos años. Para su desarrollo, contará con la participación de 53 socios de múltiples nacionalidades. Entre los que destacan entidades como diferentes departamentos de policía de varios estados miembro, el Ministerio del Interior o EUROPOL, entre otros. La iniciativa estará coordinada por el comisariado para la energía atómica y las energías renovables.

Retos de seguridad

Tal y como indica el director ejecutivo de Plus Ethics, actualmente la complejidad en los retos de seguridad se ha visto incrementada. Lo que exige un uso mejor y más generalizado de la IA por parte de los organismos encargados de la aplicación de la ley. “La IA puede aportar beneficios a las fuerzas de seguridad a todos los niveles si se les proporcionan las herramientas y los datos adecuados. Además, el aumento de la concienciación sobre el uso indebido por parte de los delincuentes está suponiendo una amenaza a la que hay que hacer frente rápidamente”, recalca Castro.

Así, con la implementación de la IA en las fuerzas de seguridad se busca reforzar sus operaciones de investigación y ciberseguridad, proporcionando soluciones fiables para sus trabajos operativos. También, garantizar que estos organismos puedan proteger sus propios sistemas de IA y hacer frente al uso indebido de esta tecnología.

Añadir comentario