La Inteligencia Artificial (IA) ha dejado de ser una visión futurista para convertirse en una realidad viva, autónoma y cambiante, integrándose a un ritmo vertiginoso en casi todos los aspectos de nuestra sociedad, incluyendo el sistema de justicia penal. Si bien ofrece soluciones innovadoras y la promesa de una mayor eficiencia, su despliegue acelerado ha dado lugar a la emergencia de nuevos y complejos desafíos legales y éticos, especialmente en lo que respecta a los «delitos algorítmicos». La gran pregunta que surge es fundamental: ¿quién es responsable cuando la IA cruza la línea o se utiliza con fines ilícitos?. Nuestro marco legal, en muchos países, aún no ofrece respuestas claras, dejando a los ciudadanos expuestos a errores invisibles e injusticias difíciles de rastrear.
¿Qué son los Delitos Algorítmicos y Dónde se Manifiestan?
En el ámbito de la justicia penal, los algoritmos y la IA se utilizan cada vez más en sistemas de predicción o estimación de riesgo, basados en cálculos probabilísticos. Ejemplos de estos instrumentos en España son VioGén, para valorar el riesgo de revictimización en violencia de género; RisCanvi, para predecir el riesgo de reincidencia o quebrantamiento de condena en la Administración Penitenciaria catalana; y VeriPol, que busca predecir denuncias falsas. Aunque VioGén y RisCanvi no son IA estricta sensu por su falta de capacidad de aprendizaje autónomo, VeriPol sí entra en esta definición.
Sin embargo, la IA también se ha convertido en un medio para la comisión de delitos, lo que conocemos como ciberdelincuencia potenciada por algoritmos. Paula Andrea Ramírez Barbosa señala en «Delitos Algorítmicos: ¿Quién Responde cuando la IA cruza la línea?» que la línea entre herramienta y arma se difumina cuando la IA se usa con fines nefastos. Los «Los 10 Delitos Cibernéticos más Peligrosos Potenciados por la Inteligencia Artificial» nos advierten sobre:
• Ataques Cibernéticos Autónomos: Capaces de automatizar y escalar ataques de denegación de servicio o brechas de seguridad en infraestructuras críticas.
• Creación de Deepfakes: Imágenes y videos manipulados, falsificados pero realistas, usados para engañar, difamar o extorsionar.
• Robo de Identidad Automatizado: La IA facilita la recopilación y análisis masivo de datos personales para robos de identidad a gran escala.
• Manipulación de Sistemas de Toma de Decisiones Basados en IA: Un sabotaje en sistemas cruciales como mercados financieros o vehículos autónomos podría tener consecuencias devastadoras.
• Ataques de Phishing Automatizados y Personalizados: La IA puede hacer estos engaños extremadamente convincentes al personalizar mensajes a gran escala.
• Creación de Malware Autónomo: Malware que aprende y se adapta a las defensas de seguridad, haciéndolos más difíciles de prevenir.
Un caso particularmente ilustrativo de la complejidad de la responsabilidad es el de los vehículos autónomos. María Paula Ávila Zea y Ana Fabiola Zamora Vázquez, en «Aplicación de la inteligencia artificial en el Derecho Penal: problemas y desafíos», analizan el accidente fatal de un vehículo autónomo de Uber en Arizona. La pregunta clave es: ¿a quién se le atribuye la responsabilidad penal cuando un vehículo autónomo está manejando?. La tecnología se presume perfecta, pero si un accidente ocurre por un defecto del sistema, la responsabilidad podría recaer en el fabricante o incluso en la infraestructura vial.
Los Múltiples Desafíos de la IA en el Ámbito Penal
La integración de la tecnología en el derecho penal plantea desafíos significativos debido a la falta de regulación de la IA, lo que podría comprometer los derechos fundamentales. Meysy Elizabeth Ortegón Dzul destaca en «La Inteligencia Artificial y sus desafíos legales; ¿ legislamos el futuro o perseguimos el pasado?» que la ley aún no ofrece respuestas claras y los ciudadanos quedan expuestos a errores invisibles.
Uno de los problemas más preocupantes es el sesgo algorítmico. Como señala Daniel Varona en «Algoritmos e inteligencia artificial en el sistema de justicia penal – InDret», los algoritmos pueden tener sesgos, y es crucial recordar que los humanos (policías, jueces) tampoco están libres de ellos. Alejandro Morales Cáceres, en «EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA PROTECCIÓN DE DATOS PERSONALES», explica que el sesgo algorítmico ocurre cuando un sistema informático reproduce los prejuicios de los humanos que lo codificaron o los datos con los que fue entrenado.
Un ejemplo claro es el programa COMPAS utilizado en EE. UU. para predecir la reincidencia, que demostró que las personas negras recibían calificaciones de riesgo más altas que las blancas. Juliana Vivar Vera, citada en «Qué es un algoritmo de riesgo criminal – TecScience», también señala que los predictores de riesgo criminal reproducen la discriminación basada en la demografía y el estatus socioeconómico. La periodista Julia Angwin, en su investigación «Machine Bias», encontró que los acusados negros tenían muchas más probabilidades que los blancos de ser juzgados con un mayor riesgo de reincidencia por el sistema COMPAS.
La falta de transparencia es otro temor recurrente, conocida como el problema de la «caja negra». Los algoritmos, especialmente aquellos con aprendizaje automático, pueden llegar a resultados sin una explicación clara de cómo correlacionan la información. Si una decisión automatizada perjudica a un titular de datos personales, el principio de información exige que se comprenda por qué se tomó esa decisión y cómo oponerse a ella, lo que no siempre implica «abrir» la caja negra.
Además, existe el riesgo de la deshumanización de la justicia. Si la ley penal obliga a realizar juicios predictivos, la cuestión es si se dejan en manos del «juicio clínico» del profesional o de una función matemática. La preocupación radica en que los jueces puedan dictar sentencias sin cuestionar los resultados de la IA, confiando más en la máquina que en su propio criterio humano. Esto también plantea el riesgo de que el control de la violencia, que es responsabilidad del Estado, quede en manos de empresas privadas si los jueces no están capacitados para usar y comprender estas herramientas.
La Urgencia de una Regulación Proactiva y Ética
Los expertos concuerdan en la necesidad urgente de una normativa específica para regular la aplicación de la inteligencia artificial en el ámbito penal. Esta regulación debe ser preventiva, ética y transversal, combinando derechos humanos, innovación, transparencia y rendición de cuentas.
Una regulación efectiva, como proponen Ávila Zea y Zamora Vázquez, se debe abordar varias dimensiones:
• Principios y reglas básicas del derecho: La IA debe desarrollarse y utilizarse de conformidad con principios éticos, garantizando la dignidad humana y los derechos fundamentales. Esto incluye asegurar que la IA sea ética, social (sin discriminación), explicable (transparente) y responsable.
• Supervisión humana de los sistemas de IA: Es fundamental que los profesionales del derecho reciban formación especializada sobre el uso y las limitaciones de estas herramientas. No se pueden poner en manos de los agentes del sistema penal sin una capacitación previa.
• Protección de datos y «Privacy by Design»: La utilización de la IA implica necesariamente el tratamiento de datos masivos, por lo que es imperativo cumplir con principios como legalidad, consentimiento, finalidad, proporcionalidad, calidad y seguridad de los datos. El concepto de «protección de datos desde el diseño» (privacy by design) es crucial para integrar la privacidad desde las primeras fases de desarrollo de la tecnología.
• Promoción de la innovación responsable: La regulación no debe frenar el progreso, sino guiar el desarrollo de la IA de manera responsable y ética. Esto implica establecer requisitos y prohibiciones para sistemas de riesgo inaceptable o alto, así como obligaciones para proveedores y usuarios en cuanto a seguridad, protección de datos y transparencia.
• Clarificación de la responsabilidad penal: Es indispensable establecer normativa para atribuir responsabilidad penal cuando un delito se configura con la implicación de la IA.
En definitiva, la IA es una herramienta poderosa con un inmenso potencial para el bien, capaz de resolver problemas complejos y mejorar la vida de muchas personas. Sin embargo, para que este futuro se materialice, es crucial que su desarrollo sea guiado por un marco ético sólido y una regulación efectiva que no solo proteja los derechos fundamentales de los individuos, sino que también fomente un uso responsable y progresivo de la IA como una herramienta valiosa para los profesionales del derecho. No se trata de prohibir la tecnología, sino de asegurar que la justicia se mantenga humana y equitativa en la era digital.

