El avance de la tecnología ha trasformado el mundo, haciendo que las personas cambien su estilo de vida para adaptarse a la nueva era digital, asumiendo nuevas necesidades y problemas. El surgimiento de la inteligencia artificial en adelante (IA) ha ocasionado cambios significativos en las distintas áreas de la ciencia. El Derecho no escapa de esa transformación y cada una de sus ramas se enfrentan a diferentes desafíos, en especial en el campo penal, por lo que se exige el máximo de adaptabilidad en los sistemas normativos.
La IA es una rama de la ciencia informática que se define como la combinación de algoritmos que posibilita la creación de máquinas automatizadas para resolver problemas de forma rápida y efectiva expertas en un ámbito concreto, al igual, analizar datos, actualizar conocimientos, así como realizar tareas similares a los seres humanos esto con fundamento en la propuesta de la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología de la UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, 2020).
Los sistemas de IA se clasifican de acuerdo con sus niveles de riesgo para localizar los posibles daños que puedan afectar los bienes jurídicos protegidos. Con la finalidad de prevenir la vulneración de derechos fundamentales reconocidos en las leyes como en la Constitución y demás cuerpos normativos. La Comisión Europea establece cuatro niveles de riesgo en su propuesta de legislación porque cuando mayor es el riesgo, más exigente tiene que ser la ley, estos son:
- Los sistemas de IA, con riesgo inaceptable, tienen un alto índice de peligrosidad y su utilización se encuentra prohibida, salvo casos previstos en la ley. Esto es, cuando se vulnere el derecho de privacidad, se podrá emplear algoritmos para garantizar la protección de datos e información personal. Además, se podrá emplear para fines de seguridad nacional. Ejemplo, robo de identidad a través de deepfakes, vigilancia masiva para cometer delitos de robo, bots ladrones y demás delitos (Martínez Espín, 2023).
- Los sistemas de alto riesgo se encuentran sometidos a constantes evaluaciones con el propósito de examinar los patrones de información para proteger la privacidad y la no discriminación. Además, se buscará la transparencia en el uso de datos que ha sido proporcionada por los usuarios, teniendo como propósito, disminuir riesgos y proteger datos a causa de que pueda ser utilizada de manera inadecuada. Ejemplo, cámaras de reconocimiento facial o vigilancia biométrica.
- Los sistemas de riesgo limitado, minimiza los daños que pueda generar, aunque no los des- carta. Obliga a los usuarios a utilizarla con transparencia y responsabilidad, puesto que las personas son conscientes que están interactuando con máquinas. Ejemplo: publicidad online, asistente virtual. Por último, se encuentran los sistemas de IA que tienen un nivel de riesgo mínimo, este se emplea a través de chat bots, de modo que podrán realizar tareas, consultas, resolver inquietudes y demás aplicaciones que sean habilitados para la IA. Ejemplo Chat GPT.
- Los sistemas con IA que tengan un nivel de riesgo alto o inaceptable son sujetos a fiscalización, puesto que, son más propensos a causar daño y vulnerar derechos fundamentales. se debe regular con normativa específica que establezca sus requisitos y prohibiciones, caso contrario, se encuentra en peligro el derecho a la seguridad debido a que, se podrá crear o manipular imágenes, videos, audios a fin de causar daño a un tercero.
La Comisión Europea, afirma que los medios tecnológicos han dejado de ser una ciencia ficción para convertirse en un estilo de vida. Su crecimiento en capacidad informática, la disponibilidad de datos como los avances cibernéticos algorítmicos han convertido a la IA en una herramienta estratégica e innovadora del siglo XXI. (Comisión Europea, 2018).
La manera en que se determinan estos riesgos están mediados por es el proceso intencionado de comprensión e intervención de las relaciones entre ciencia, tecnología y sociedad, construido a partir de la participación activa de los diversos grupos sociales que generan conocimiento y hacen uso del mismo. La apropiación social de la Ciencia, la Tecnología y la Innovación (ASCTI) actualmente, objeto de los estudios CTS(Ciencia, Tecnología y Sociedad), ha tenido diversas aplicaciones en función las particularidades de origen: el arte, la psicología pero que en el orden práctico no es más que el traslado o trasferencia, aunque sea parcial, de una categoría, proceso o artefacto sobre la cual se generará un nuevo significado. (Dávila-Rodríguez, 2021)
La teoría de la apropiación social de la tecnología (AST) desde el enfoque CTS examina cómo los grupos sociales adoptan, adaptan, resignifican y transforman las tecnologías en sus contextos cotidianos, rechazando visiones deterministas (tecnológicas o sociales). Se centra en procesos dinámicos donde los usuarios no son pasivos, sino agentes activos que moldean la tecnología según sus necesidades, culturas y resistencias. Revela que la tecnología es un campo de batalla político donde se juegan formas de poder, identidad y resistencia. No hay tecnología "neutral": su significado se construye socialmente. La Teoría de la Apropiación Social de la Tecnología (TAS) es un enfoque interdisciplinario (sociología, comunicación, estudios culturales) que analiza cómo los grupos humanos adoptan, adaptan y resignifican las tecnologías según sus contextos sociales, culturales y necesidades, transformando tanto la tecnología como sus propias prácticas. Rechaza el determinismo tecnológico (la idea de que la tecnología impone cambios sociales unidireccionales) y enfatiza la agencia humana y la creatividad en el uso de la tecnología.
Se puede apreciar que ofrece una lente poderosa para entender que el verdadero poder de la tecnología reside no solo en su diseño, sino en cómo las personas y comunidades la hacen suya, la transforman y la integran significativamente en sus vidas y culturas. La AST es un campo interdisciplinario que analiza cómo las comunidades transforman, adaptan y usan tecnologías según sus necesidades y contextos, promoviendo empoderamiento, inclusión y desarrollo autónomo. A diferencia de la mera adopción pasiva, la AST implica un proceso crítico, creativo y colectivo.
Los cambios que está viviendo la sociedad, por la tecnología, es alarmante y el Derecho como “ciencia del deber ser”, tiene entre sus principales fines el de regulador de comportamiento, por tanto, protege y regulariza relaciones sociales que producen efectos jurídicos al tutelarlas a través de las normas jurídicas y las convierte en relaciones jurídicas necesarias e imprescindibles para el sostenimiento del Estado. Con ello, además es capaz de educar, prevenir, promover y distribuir valores sociales y legitima ese poder, e incluso impone su represión a través de sus rasgos característicos de la obligatoriedad[1], imperatividad[2] y coactividad[3]. Todo ello permite que el Derecho interactúe en todas las esferas de la vida social del hombre, estableciéndose así aquellos patrones conductuales que son éticamente superiores, dotando a la sociedad de un sistema de normas jurídicas que establecen el orden necesario imperante pero que responde como fenómeno histórico social concreto a las condiciones de esa sociedad, plasmado de un contenido axiológico, deontológico, político y clasista. Por ello, el Derecho, no puede quedarse rezagado en su empleo y regulación de la IA, por lo que se hace necesario estudiar desde una perspectiva jurídico este fenómeno.
La integración de máquinas con la codificación de sistemas expertos jurídicos, capaces de resolver problemas legales y tomar decisiones de forma autónoma, traerá consigo consecuencias jurídicas. Es necesario realizar un análisis centrado en el Derecho y los avances tecnológicos debido a que, la IA está transformando el sistema jurídico, donde los problemas se han comenzado a expandir en distintas áreas del ordenamiento jurídico. No obstante, aún no se ha logrado crear un cuerpo normativo específico para la IA en donde se incluya principios, normas y reglas (Solar Cayón, 2020).
(Neüman, 2008), «se debe producir un cambio, no sobre lo apropiable sino sobre las prácticas sociales asociadas con lo apropiable, y luego los que se apropian deben poder regular el resultado del cambio en las prácticas sociales» (p. 89). Es necesario entonces que contar con un ordenamiento jurídico que establezca aquellas conductas que pueden tipificar delitos que violen este bien jurídico pero que tomen como precepto esencial la tridimensionalidad del Derecho: como norma, como hecho y como valor. No sólo basta con que exista esa regla o dictado de conducta(norma) sino que en la misma se reflejen verdaderas relaciones jurídicas que necesitan una tutela jurídica (hecho) y que con ello además, se busque propiciar valores sociales que estén en consonancia con la sociedad (valor), sólo así se puede cumplir con la realización y aplicación del Derecho, pues bastaría con lograr que la sociedad entendiera que es ineludible cumplir con lo establecido legalmente porque si no de manera compulsiva le será atribuida una sanción. Con ello, se hace alusión a la sociedad toda, los seres sociales que constantemente establecen relaciones sociales así como a los operadores del Derecho que deben buscar soluciones justas y equitativas conforme a Derecho.
Los profesionales del Derecho deben prepararse para resolver nuevas cuestiones legales necesitan capacitarse, mantenerse actualizados y adquirir conocimientos en los sistemas tecnológicos de IA para proteger derechos fundamentales como la protección a la privacidad, transparencia y no discriminación. En este marco, la justicia ahora se encuentra en manos de la IA, siendo crucial evaluar adecuadamente las leyes y la aplicación de la ética en los sistemas jurídicos (Farfán Intriago, 2023).
La implementación de la inteligencia artificial en el derecho tiene varias ventajas, así como también, ofrece oportunidades que van a ser de gran ayuda en los procesos judiciales. Además, es una fuente de apoyo para los profesionales del derecho, al momento de realizar sus actividades laborales, puesto que, serán más eficiencia y de mejor efectividad en la prestación de servicios legales.
Los expertos en el derecho tendrán tres beneficios que pretenden ser de gran ayuda para mejorar la justicia. En primer lugar, se podrán utilizar sistemas basados en IA a fin de automatizar tareas que son rutinarias y repetitivas de manera rápida y efectiva, esto con el propósito de optimizar tiempo y que los expertos en el derecho puedan enfocarse en otras tareas más estratégicas y complejas para obtener resultados positivos en la práctica (Farfán Intriago, 2023).
Pero los sistemas de IA podrán ayudar a resolver conflictos y tomar decisiones por medio de algoritmos que exploren la base de datos informáticos legales de casos anteriores para resolverlos con mayor precisión y aplicarlos para casos futuros. Por último, los sistemas de IA protegerán el derecho a la igualdad y no discriminación por medio de la disminución de sesgos en el proceso judicial, garantizando el trato justo ante la ley para todas las personas (Caló, 2017).
Sin embargo, también se pueden presentar riesgos al momento de utilizar sistemas de IA en los procesos judiciales. Como es el caso de existir desconfianza de implementar sistemas con IA, puesto que, aún no se ha verificado que tan confiables pueden llegar a ser. Al igual, los sistemas de IA no son claros, por lo que, podría afectar el principio de la motivación al momento de la toma de decisiones.
La Unión Europea, en la resolución del parlamento, establece que el sistema de IA debe ser utilizado para asuntos penales por agentes oficiales, jueces y demás profesionales, puesto que esto va a significar un aporte fundamental en el derecho penal. Se trata de un sistema de IA con el objetivo de calcular las probabilidades que tiene una persona en cometer un ilícito, más bien tener una predicción criminal, para evitar que se consume el delito (Comisión Europea, 2020).
En este marco, el parlamento europeo desea implementar dos sistemas para la utilización de la IA como es el policing y el sentencing. Esto hace alusión a los sistemas con inteligencia artificial policial (IAP) que sirven para prevenir el cometimiento de delitos y ayudar en la investigación policial para la delincuencia. Asimismo, sistemas con inteligencia artificial judicial (IAJ) para aplicarlo en cada una de sus fases y etapas, a fin de encontrar al culpable del cometimiento de un delito; es decir, se aplicará en la persecución criminal, la investigación delictual y en el juzgamiento para atribuir la responsabilidad por el cometimiento de un delito (Miró Llinares, 2018).
Estos sistemas serán empleados en los procesos penales, específicamente en el área de información e investigación, a fin de prevenir que se consume un delito. No obstante, la implementación de estos sistemas en el proceso penal introduce retos y desafíos como sesgos y discriminaciones en la toma de decisiones legales y demás casos que vulneran derechos fundamentales y quebrantan la justicia.
Bart Verheij (2020), establece tres formas para disminuir los riegos en los procesos penales. Se resume a tres desafíos, estos son: Primero que la IA debe ser para todas las personas, segundo la IA al momento de tomar decisiones independientes, estas deben ser motivadas, de manera que sea transparente y proporcione explicaciones justificadas; y, por último, la IA debe seguir las reglas establecidas en los diferentes cuerpos normativos, para garantizar el uso responsable.
En este contexto, se cuestiona quién, será el responsable por los delitos ocasionados por IA, hasta el momento no se tienen respuestas para esta interrogante, por ende, es necesario realizar un estudio sobre el status procesal de los sistemas de IA e implementar normativa para este acontecimiento, puesto que, toda innovación requiere el planteamiento de nuevos desafíos legales.
Los dilemas éticos sobre la IA se presentan como una problemática y desde la perspectiva jurídica por un tiempo se consideró que no era un problema, puesto que, se manifestaba que la tecnología era incapaz de crear máquina que tenga coincidencia y autonomía. Por lo que, la ética sería neutra, con el paso del tiempo la tecnología se convirtió en el motor del mundo, elaborando sistemas capaces de tener autonomía generando un impacto que causados estragos en el derecho y es controversial (Parra Sepúlveda, 2021). Por esta razón, el desafío ético va encaminado en controlar que las personas no utilicen los sistemas de IA de forma maliciosa. Dando a entender que la identificación de principios, valores y la ética en la IA es la base para una sociedad responsable, juntamente con la implementación de políticas públicas y privadas que regulen a la tecnología.
La ausencia de regulación legal efectiva sobre las conductas que se pueden llevar a cabo con el empleo de la IA coloca en estado de indefensión e inseguridad jurídica a la sociedad que es beneficiaria y también ejecutora de esta tecnología. Por ende, esta falta de amparo normativo siempre tendría una traducción desfavorable para la seguridad jurídica que, como principio del derecho, se debe apreciar en todos los ordenamientos jurídicos (Radbruch, 1944; Millas, 2012; Pérez Luño, 2000). Construir un resultado científico para la apropiación de la IA, permitirá entender la interrelación de los actores que que emplean, consumen, son destinatarios-beneficiarios y ejecutores de sistemas inteligentes que son el principal fundamento para exigir una regulación jurídica efectiva.
El Parlamento Europeo (2020), en su propuesta de legislación sobre el uso de sistemas con IA, robótica y tecnologías asociadas, reconoce e identifica los principios éticos que deben ser considerados en el marco jurídico para regular a la IA. En el artículo 4 en su parte pertinente, manifiesta que toda IA, robótica y tecnologías relacionadas, se deberán desarrollar y utilizar de conformidad con principios éticos. El desarrollo y uso de la IA se llevarán a cabo para garantizar la dignidad humana y los derechos fundamentales de las personas; así como también se llevarán a cabo para mejor los intereses de los ciudadanos, protegiendo y fomentando el bienestar social (European Parliament, 2020).
En cambio, al hablar de IA con interacción social sin discriminación, hace referencia que el derecho debe garantizar a todas las personas el acceso a los sistemas de IA. De la misma manera, los sistemas de IA para garantizar la transparencia al proporcionar decisiones deberán ser justificados, conforme a las leyes que rigen en cada materia. Además, deben ser explicados con un lenguaje claro y comprensible para todos los seres humanos. Los sistemas de IA tienen como finalidad resolver conflictos y utilizar tecnología basada en IA en los juzgados para agilizar, tomar decisiones rápidas, maximizar trámites y minimizar costos procesales.
El derecho surge con las necesidades de la sociedad. Por lo que, es necesario implementar normativa con base a los desafíos y retos que la IA ofrece. Así como también aprovechar las oportunidades que tiene la misma. Haciendo esta reflexión, la propuesta de normativa debe regular las actividades relativas a la IA, enfocado en el ser humano, con el objetivo de fomentar la innovación, potenciar la utilización de tecnología y reforzar la protección de datos por medio de ciberseguridad para tener sistemas con IA de confianza. Además, establecer un marco ético y legal de la IA y un marco de responsabilidad para los proveedores de IA (Martínez Espín, 2023).
En este sentido, el desarrollo de una legislación apropiada para el diseño y uso responsable de sistemas con IA debe integrar los siguientes principios. La inclusión, responsabilidad, transparencia y justicia, que además sirven de nexo entre lo ético y jurídico, al igual establecer normas especiales de naturaleza sectorial para garantizar el desarrollo confiable de la IA con base, al campo que desempeñe y responder a las problemáticas sobre el régimen de responsabilidad y la protección de datos personales.
El objetivo de la propuesta es prohibir la utilización de sistemas con IA que puedan poner en peligro la seguridad de las personas, así como también vulnerar derechos fundamentales. Los creadores de sistemas con IA deben ser transparentes, brindar toda la información, de forma clara y comprensible, sobre el funcionamiento y sus limitaciones. Además, impulsar mecanismo de gobernanza que se centre en la actividad humana, la supervisión o control de los sistemas con IA por personas capacitadas (Martínez Espín, 2023).
La regulación de la IA debe respetar los derechos fundamentales para garantizar el bienestar de las personas y de la sociedad, puesto que, se están creando programas con discriminación algorítmica un ejemplo de ello el programa de riesgos COMPAS utilizado por jueces de EE. UU para determinar la tasa de reincidencias, en donde se comprobó que para personas negras tienen una tasa más elevada que personas blancas, dejando en claro la vulneración al derecho de igualdad y no discriminación (Parra Sepúlveda, 2021).
Con base a esto, es necesario que los sistemas con IA se sometan a un proceso de certificación antes de ser utilizados y que sean supervisados o controlados por personas capacitadas, quienes serán los responsables de garantizar el cumplimiento de las normas establecidas y controlar el funcionamiento de los sistemas. En este marco, la propuesta de regulación de la IA se centra en los siguientes aspectos importantes para proteger los derechos fundamentales de las personas. Primero, se deben prohibir ciertas prácticas de acuerdo con su grado de peligrosidad, los sistemas con un riesgo inaceptable se encuentran prohibidas, puesto que, pueden manipular el comportamiento humano como vigilancia masiva, difundir información falsa y demás delitos. Segundo, los proveedores y los usuarios de sistemas con IA deben tener obligaciones para garantizar la seguridad y protección de datos, así como también, que su utilización sea transparente, responsable por medio de evaluaciones de riesgo y mantenimientos (Martínez Espín, 2023).
Los sistemas de alto riesgo deben someterse a un proceso de certificación antes de ser utilizados bajo la supervisión de personas capacitadas, quienes serán los responsables de garantizar el cumplimento de las normas establecidas y controlar el funcionamiento del sistema. Por último, fomentar la cooperación internacional para desarrollar normas globales, en colaboración con organizaciones internacionales. Así como la propuesta de la Comisión Europea que establece alianzas internacionales para adoptar prácticas éticas y responsables.
Con base en todos estos argumentos y partiendo de las propuestas realizado por Estébanez (Estébanez, 2014) y los de Lozano Borda y Pérez- Bustos (Lozano Borda, 2021) para afrontar el estudio de la IA desde la concepción de ASCyT se asumirá el criterio referido al uso del conocimiento, desarrollo, innovación y tecnología que puede ser observado como una cualidad del uso de conocimientos en los procesos de innovación o en asociación a procesos que ponen énfasis en el uso y apropiación de la ciencia por la sociedad, como base del desarrollo y del crecimiento.