Perfilado de sección

    • La Digitalización y la Inteligencia Artificial ((IA) ha supuesto un punto de inflexión en la relación de las actividades humanas con la tecnología. Al ser la base para el funcionamiento y el desarrollo futuro de cualquier proceso complejo en la toma de decisiones, debido a la gran cantidad de datos que se genera a través de su utilización, suscita preocupaciones sobre algoritmos discriminatorios, invasión de privacidad y aplicaciones objetables. Su incorporación a la maquinaria judicial permite la digitalización de procedimientos, la celebración de audiencias telemáticas o incluso la toma de decisiones sin intervención humana. Específicamente, en el ámbito penal, ha abierto una nueva dimensión en la prevención, contención, enfrentamiento y juzgamiento de hechos delictivos, proporcionando una gestión más eficiente de los casos. La digitalización de la justicia penal exige identificar la situación tecnológica de partida, tomar conciencia de las posibilidades y límites de los adelantos tecnológicos existentes, revisar las experiencias más innovadoras y evaluar su impacto sobre el contenido de los derechos fundamentales reconocidos. Se suma la identificación de buenas prácticas, así como la formulación de propuestas y recomendaciones, tomando especialmente en consideración las particularidades del sistema de justicia penal. Para la evaluación anterior se tiene en cuenta el marco vigente de los derechos fundamentales en Cuba y los textos de derecho comparado con incidencia sobre la vertebración de este ámbito. Con este Programa se pretende actualizar a los juristas dedicados al ejercicio del Derecho Penal en temas relativos a la digitalización, la prueba digital, las técnicas especiales de investigación, la IA como sujeto del delito y herramienta para aplicar a las políticas de seguridad ciudadana, a las estrategias contra las transgresiones delictivas y en la tomas de decisiones judiciales, a fin de dotarlos de una perpectiva integral que les permita un mejor desempeño práctico de sus funciones.

    • 1)    Objetivos generales:

      a)      Adquirir una perspectiva integral sobre la digitalización y la utilización de la Inteligencia Artificial aplicada por la criminalística en el enfrentamiento del delito, específicamente en la prácticas de las técnicas especiales de investigación.

      b)      Socializar buenas prácticas e incentivar la investigación en estos temas.

      2)  Contenidos

      a)    Sistema de conocimientos: Desarrollo de la Inteligencia Artificial aplicada por la criminalística.

      b)   Sistema de habilidades: los jueces, fiscales, abogados, profesores e instructores deben incorporar los conocimientos relativos a la IA que les permitan mejores prácticas en el ejercicio de su profesión tras ser dotados de una perspectiva integral sobre su situación actual como herramienta para aplicar a las políticas de seguridad ciudadana, a las estrategias contra el delito en general y en la tomas de decisiones judiciales, en ámbito procesal y de ejecución de las penas.

      c)    Sistema de valores: Fortalecer las convicciones morales, éticas y jurídicas que obligan a respetar los derechos ciudadanos y los límites establecidos por la Constitución para el ejercicio del poder punitivo del Estado, mediante un comportamiento apegado a la ley.

      3)  Formas organizativas de las actividades (conferencia)

    • El avance de la tecnología ha trasformado el mundo, haciendo que las personas cambien su estilo de vida para adaptarse a la nueva era digital, asumiendo nuevas necesidades y problemas. El surgimiento de la inteligencia artificial en adelante (IA) ha ocasionado cambios significativos en las distintas áreas de la ciencia. El Derecho no escapa de esa transformación y cada una de sus ramas se enfrentan a diferentes desafíos, en especial en el campo penal, por lo que se exige el máximo de adaptabilidad en los sistemas normativos.

      La IA es una rama de la ciencia informática que se define como la combinación de algoritmos que posibilita la creación de máquinas automatizadas para resolver problemas de forma rápida y efectiva expertas en un ámbito concreto, al igual, analizar datos, actualizar conocimientos, así como realizar tareas similares a los seres humanos esto con fundamento en la propuesta de la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología de la UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, 2020).

      Los sistemas de IA se clasifican de acuerdo con sus niveles de riesgo para localizar los posibles daños que puedan afectar los bienes jurídicos protegidos. Con la finalidad de prevenir la vulneración de derechos fundamentales reconocidos en las leyes como en la Constitución y demás cuerpos normativos. La Comisión Europea establece cuatro niveles de riesgo en su propuesta de legislación porque cuando mayor es el riesgo, más exigente tiene que ser la ley, estos son:

      1. Los sistemas de IA, con riesgo inaceptable, tienen un alto índice de peligrosidad y su utilización se encuentra prohibida, salvo casos previstos en la ley. Esto es, cuando se vulnere el derecho de privacidad, se podrá emplear algoritmos para garantizar la protección de datos e información personal. Además, se podrá emplear para fines de seguridad nacional. Ejemplo, robo de identidad a través de deepfakes, vigilancia masiva para cometer delitos de robo, bots ladrones y demás delitos (Martínez Espín, 2023).
      2. Los sistemas de alto riesgo se encuentran sometidos a constantes evaluaciones con el propósito de examinar los patrones de información para proteger la privacidad y la no discriminación. Además, se buscará la transparencia en el uso de datos que ha sido proporcionada por los usuarios, teniendo como propósito, disminuir riesgos y proteger datos a causa de que pueda ser utilizada de manera inadecuada. Ejemplo, cámaras de reconocimiento facial o vigilancia biométrica.
      3. Los sistemas de riesgo limitado, minimiza los daños que pueda generar, aunque no los des- carta. Obliga a los usuarios a utilizarla con transparencia y responsabilidad, puesto que las personas son conscientes que están interactuando con máquinas. Ejemplo: publicidad online, asistente virtual. Por último, se encuentran los sistemas de IA que tienen un nivel de riesgo mínimo, este se emplea a través de chat bots, de modo que podrán realizar tareas, consultas, resolver inquietudes y demás aplicaciones que sean habilitados para la IA. Ejemplo Chat GPT.
      4. Los sistemas con IA que tengan un nivel de riesgo alto o inaceptable son sujetos a fiscalización, puesto que, son más propensos a causar daño y vulnerar derechos fundamentales. se debe regular con normativa específica que establezca sus requisitos y prohibiciones, caso contrario, se encuentra en peligro el derecho a la seguridad debido a que, se podrá crear o manipular imágenes, videos, audios a fin de causar daño a un tercero.

      La Comisión Europea, afirma que los medios tecnológicos han dejado de ser una ciencia ficción para convertirse en un estilo de vida. Su crecimiento en capacidad informática, la disponibilidad de datos como los avances cibernéticos algorítmicos han convertido a la IA en una herramienta estratégica e innovadora del siglo XXI. (Comisión Europea, 2018).

      La manera en que se determinan estos riesgos están mediados por es el proceso intencionado de comprensión e intervención de las relaciones entre ciencia, tecnología y sociedad, construido a partir de la participación activa de los diversos grupos sociales que generan conocimiento y hacen uso del mismo. La apropiación social de la Ciencia, la Tecnología y la Innovación (ASCTI) actualmente, objeto de los estudios CTS(Ciencia, Tecnología y Sociedad), ha tenido diversas aplicaciones en función las particularidades de origen: el arte, la psicología pero que en el orden práctico no es más que el traslado o trasferencia, aunque sea parcial, de una categoría, proceso o artefacto sobre la cual se generará un nuevo significado.  (Dávila-Rodríguez, 2021)

      La teoría de la apropiación social de la tecnología (AST) desde el enfoque CTS examina cómo los grupos sociales adoptan, adaptan, resignifican y transforman las tecnologías en sus contextos cotidianos, rechazando visiones deterministas (tecnológicas o sociales). Se centra en procesos dinámicos donde los usuarios no son pasivos, sino agentes activos que moldean la tecnología según sus necesidades, culturas y resistencias. Revela que la tecnología es un campo de batalla político donde se juegan formas de poder, identidad y resistencia. No hay tecnología "neutral": su significado se construye socialmente. La Teoría de la Apropiación Social de la Tecnología (TAS) es un enfoque interdisciplinario (sociología, comunicación, estudios culturales) que analiza cómo los grupos humanos adoptan, adaptan y resignifican las tecnologías según sus contextos sociales, culturales y necesidades, transformando tanto la tecnología como sus propias prácticas. Rechaza el determinismo tecnológico (la idea de que la tecnología impone cambios sociales unidireccionales) y enfatiza la agencia humana y la creatividad en el uso de la tecnología.

      Se puede apreciar que ofrece una lente poderosa para entender que el verdadero poder de la tecnología reside no solo en su diseño, sino en cómo las personas y comunidades la hacen suya, la transforman y la integran significativamente en sus vidas y culturas. La AST es un campo interdisciplinario que analiza cómo las comunidades transforman, adaptan y usan tecnologías según sus necesidades y contextos, promoviendo empoderamiento, inclusión y desarrollo autónomo. A diferencia de la mera adopción pasiva, la AST implica un proceso crítico, creativo y colectivo.

      Los cambios que está viviendo la sociedad, por la tecnología, es alarmante y el Derecho como “ciencia del deber ser”, tiene entre sus principales fines el de regulador de comportamiento, por tanto, protege y regulariza relaciones sociales que producen efectos jurídicos al tutelarlas a través de las normas jurídicas y las convierte en relaciones jurídicas necesarias e imprescindibles para el sostenimiento del Estado. Con ello, además es capaz de educar, prevenir, promover y distribuir valores sociales y legitima ese poder, e incluso impone su represión a través de sus rasgos característicos de la obligatoriedad[1], imperatividad[2] y coactividad[3]. Todo ello permite que el Derecho interactúe en todas las esferas de la vida social del hombre, estableciéndose así aquellos patrones conductuales que son éticamente superiores, dotando a la sociedad de un sistema de normas jurídicas que establecen el orden necesario imperante pero que responde como fenómeno histórico social concreto a las condiciones de esa sociedad, plasmado de un contenido axiológico, deontológico, político y clasista. Por ello, el Derecho, no puede quedarse rezagado en su empleo y regulación de la IA, por lo que se hace necesario estudiar desde una perspectiva jurídico este fenómeno.

      La integración de máquinas con la codificación de sistemas expertos jurídicos, capaces de resolver problemas legales y tomar decisiones de forma autónoma, traerá consigo consecuencias jurídicas. Es necesario realizar un análisis centrado en el Derecho y los avances tecnológicos debido a que, la IA está transformando el sistema jurídico, donde los problemas se han comenzado a expandir en distintas áreas del ordenamiento jurídico. No obstante, aún no se ha logrado crear un cuerpo normativo específico para la IA en donde se incluya principios, normas y reglas (Solar Cayón, 2020).

      (Neüman, 2008), «se debe producir un cambio, no sobre lo apropiable sino sobre las prácticas sociales asociadas con lo apropiable, y luego los que se apropian deben poder regular el resultado del cambio en las prácticas sociales» (p. 89). Es necesario entonces que contar con un ordenamiento jurídico que establezca aquellas conductas que pueden tipificar delitos que violen este bien jurídico pero que tomen como precepto esencial la tridimensionalidad del Derecho: como norma, como hecho y como valor. No sólo basta con que exista esa regla o dictado de conducta(norma) sino que en la misma se reflejen verdaderas relaciones jurídicas que necesitan una tutela jurídica (hecho) y que con ello además, se busque propiciar valores sociales que estén en consonancia con la sociedad (valor), sólo así se puede cumplir con la realización y aplicación del Derecho, pues bastaría con lograr que la sociedad entendiera que es ineludible cumplir con lo establecido legalmente porque si no de manera  compulsiva le será atribuida una sanción. Con ello, se hace alusión a la sociedad toda, los seres sociales que constantemente establecen relaciones sociales así como a los operadores del Derecho que deben buscar soluciones justas y equitativas conforme a Derecho.

      Los profesionales del Derecho deben prepararse para resolver nuevas cuestiones legales necesitan capacitarse, mantenerse actualizados y adquirir conocimientos en los sistemas tecnológicos de IA para proteger derechos fundamentales como la protección a la privacidad, transparencia y no discriminación. En este marco, la justicia ahora se encuentra en manos de la IA, siendo crucial evaluar adecuadamente las leyes y la aplicación de la ética en los sistemas jurídicos (Farfán Intriago, 2023).

      La implementación de la inteligencia artificial en el derecho tiene varias ventajas, así como también, ofrece oportunidades que van a ser de gran ayuda en los procesos judiciales. Además, es una fuente de apoyo para los profesionales del derecho, al momento de realizar sus actividades laborales, puesto que, serán más eficiencia y de mejor efectividad en la prestación de servicios legales.

      Los expertos en el derecho tendrán tres beneficios que pretenden ser de gran ayuda para mejorar la justicia. En primer lugar, se podrán utilizar sistemas basados en IA a fin de automatizar tareas que son rutinarias y repetitivas de manera rápida y efectiva, esto con el propósito de optimizar tiempo y que los expertos en el derecho puedan enfocarse en otras tareas más estratégicas y complejas para obtener resultados positivos en la práctica (Farfán Intriago, 2023).

      Pero los sistemas de IA podrán ayudar a resolver conflictos y tomar decisiones por medio de algoritmos que exploren la base de datos informáticos legales de casos anteriores para resolverlos con mayor precisión y aplicarlos para casos futuros. Por último, los sistemas de IA protegerán el derecho a la igualdad y no discriminación por medio de la disminución de sesgos en el proceso judicial, garantizando el trato justo ante la ley para todas las personas (Caló, 2017).

      Sin embargo, también se pueden presentar riesgos al momento de utilizar sistemas de IA en los procesos judiciales. Como es el caso de existir desconfianza de implementar sistemas con IA, puesto que, aún no se ha verificado que tan confiables pueden llegar a ser. Al igual, los sistemas de IA no son claros, por lo que, podría afectar el principio de la motivación al momento de la toma de decisiones.

      La Unión Europea, en la resolución del parlamento, establece que el sistema de IA debe ser utilizado para asuntos penales por agentes oficiales, jueces y demás profesionales, puesto que esto va a significar un aporte fundamental en el derecho penal. Se trata de un sistema de IA con el objetivo de calcular las probabilidades que tiene una persona en cometer un ilícito, más bien tener una predicción criminal, para evitar que se consume el delito (Comisión Europea, 2020).

      En este marco, el parlamento europeo desea implementar dos sistemas para la utilización de la IA como es el policing y el sentencing. Esto hace alusión a los sistemas con inteligencia artificial policial (IAP) que sirven para prevenir el cometimiento de delitos y ayudar en la investigación policial para la delincuencia. Asimismo, sistemas con inteligencia artificial judicial (IAJ) para aplicarlo en cada una de sus fases y etapas, a fin de encontrar al culpable del cometimiento de un delito; es decir, se aplicará en la persecución criminal, la investigación delictual y en el juzgamiento para atribuir la responsabilidad por el cometimiento de un delito (Miró Llinares, 2018).

      Estos sistemas serán empleados en los procesos penales, específicamente en el área de información e investigación, a fin de prevenir que se consume un delito. No obstante, la implementación de estos sistemas en el proceso penal introduce retos y desafíos como sesgos y discriminaciones en la toma de decisiones legales y demás casos que vulneran derechos fundamentales y quebrantan la justicia.

      Bart Verheij (2020), establece tres formas para disminuir los riegos en los procesos penales. Se resume a tres desafíos, estos son: Primero que la IA debe ser para todas las personas, segundo la IA al momento de tomar decisiones independientes, estas deben ser motivadas, de manera que sea transparente y proporcione explicaciones justificadas; y, por último, la IA debe seguir las reglas establecidas en los diferentes cuerpos normativos, para garantizar el uso responsable.

      En este contexto, se cuestiona quién, será el responsable por los delitos ocasionados por IA, hasta el momento no se tienen respuestas para esta interrogante, por ende, es necesario realizar un estudio sobre el status procesal de los sistemas de IA e implementar normativa para este acontecimiento, puesto que, toda innovación requiere el planteamiento de nuevos desafíos legales.

      Los dilemas éticos sobre la IA se presentan como una problemática y desde la perspectiva jurídica por un tiempo se consideró que no era un problema, puesto que, se manifestaba que la tecnología era incapaz de crear máquina que tenga coincidencia y autonomía. Por lo que, la ética sería neutra, con el paso del tiempo la tecnología se convirtió en el motor del mundo, elaborando sistemas capaces de tener autonomía generando un impacto que causados estragos en el derecho y es controversial (Parra Sepúlveda, 2021). Por esta razón, el desafío ético va encaminado en controlar que las personas no utilicen los sistemas de IA de forma maliciosa. Dando a entender que la identificación de principios, valores y la ética en la IA es la base para una sociedad responsable, juntamente con la implementación de políticas públicas y privadas que regulen a la tecnología.

      La ausencia de regulación legal efectiva sobre las conductas que se pueden llevar a cabo con el empleo de la IA coloca en estado de indefensión e inseguridad jurídica a la sociedad que es beneficiaria y también ejecutora de esta tecnología. Por ende, esta falta de amparo normativo siempre tendría una traducción desfavorable para la seguridad jurídica que, como principio del derecho, se debe apreciar en todos los ordenamientos jurídicos (Radbruch, 1944; Millas, 2012; Pérez Luño, 2000). Construir un resultado científico para la apropiación de la IA, permitirá entender la interrelación de los actores que que emplean, consumen, son destinatarios-beneficiarios y ejecutores de sistemas inteligentes que son el principal fundamento para exigir una regulación jurídica efectiva.

      El Parlamento Europeo (2020), en su propuesta de legislación sobre el uso de sistemas con IA, robótica y tecnologías asociadas, reconoce e identifica los principios éticos que deben ser considerados en el marco jurídico para regular a la IA. En el artículo 4 en su parte pertinente, manifiesta que toda IA, robótica y tecnologías relacionadas, se deberán desarrollar y utilizar de conformidad con principios éticos. El desarrollo y uso de la IA se llevarán a cabo para garantizar la dignidad humana y los derechos fundamentales de las personas; así como también se llevarán a cabo para mejor los intereses de los ciudadanos, protegiendo y fomentando el bienestar social (European Parliament, 2020).

      En cambio, al hablar de IA con interacción social sin discriminación, hace referencia que el derecho debe garantizar a todas las personas el acceso a los sistemas de IA. De la misma manera, los sistemas de IA para garantizar la transparencia al proporcionar decisiones deberán ser justificados, conforme a las leyes que rigen en cada materia. Además, deben ser explicados con un lenguaje claro y comprensible para todos los seres humanos. Los sistemas de IA tienen como finalidad resolver conflictos y utilizar tecnología basada en IA en los juzgados para agilizar, tomar decisiones rápidas, maximizar trámites y minimizar costos procesales.

      El derecho surge con las necesidades de la sociedad. Por lo que, es necesario implementar normativa con base a los desafíos y retos que la IA ofrece. Así como también aprovechar las oportunidades que tiene la misma. Haciendo esta reflexión, la propuesta de normativa debe regular las actividades relativas a la IA, enfocado en el ser humano, con el objetivo de fomentar la innovación, potenciar la utilización de tecnología y reforzar la protección de datos por medio de ciberseguridad para tener sistemas con IA de confianza. Además, establecer un marco ético y legal de la IA y un marco de responsabilidad para los proveedores de IA (Martínez Espín, 2023).

      En este sentido, el desarrollo de una legislación apropiada para el diseño y uso responsable de sistemas con IA debe integrar los siguientes principios. La inclusión, responsabilidad, transparencia y justicia, que además sirven de nexo entre lo ético y jurídico, al igual establecer normas especiales de naturaleza sectorial para garantizar el desarrollo confiable de la IA con base, al campo que desempeñe y responder a las problemáticas sobre el régimen de responsabilidad y la protección de datos personales.

      El objetivo de la propuesta es prohibir la utilización de sistemas con IA que puedan poner en peligro la seguridad de las personas, así como también vulnerar derechos fundamentales. Los creadores de sistemas con IA deben ser transparentes, brindar toda la información, de forma clara y comprensible, sobre el funcionamiento y sus limitaciones. Además, impulsar mecanismo de gobernanza que se centre en la actividad humana, la supervisión o control de los sistemas con IA por personas capacitadas (Martínez Espín, 2023).

      La regulación de la IA debe respetar los derechos fundamentales para garantizar el bienestar de las personas y de la sociedad, puesto que, se están creando programas con discriminación algorítmica un ejemplo de ello el programa de riesgos COMPAS utilizado por jueces de EE. UU para determinar la tasa de reincidencias, en donde se comprobó que para personas negras tienen una tasa más elevada que personas blancas, dejando en claro la vulneración al derecho de igualdad y no discriminación (Parra Sepúlveda, 2021).

      Con base a esto, es necesario que los sistemas con IA se sometan a un proceso de certificación antes de ser utilizados y que sean supervisados o controlados por personas capacitadas, quienes serán los responsables de garantizar el cumplimiento de las normas establecidas y controlar el funcionamiento de los sistemas. En este marco, la propuesta de regulación de la IA se centra en los siguientes aspectos importantes para proteger los derechos fundamentales de las personas. Primero, se deben prohibir ciertas prácticas de acuerdo con su grado de peligrosidad, los sistemas con un riesgo inaceptable se encuentran prohibidas, puesto que, pueden manipular el comportamiento humano como vigilancia masiva, difundir información falsa y demás delitos. Segundo, los proveedores y los usuarios de sistemas con IA deben tener obligaciones para garantizar la seguridad y protección de datos, así como también, que su utilización sea transparente, responsable por medio de evaluaciones de riesgo y mantenimientos (Martínez Espín, 2023).

      Los sistemas de alto riesgo deben someterse a un proceso de certificación antes de ser utilizados bajo la supervisión de personas capacitadas, quienes serán los responsables de garantizar el cumplimento de las normas establecidas y controlar el funcionamiento del sistema. Por último, fomentar la cooperación internacional para desarrollar normas globales, en colaboración con organizaciones internacionales. Así como la propuesta de la Comisión Europea que establece alianzas internacionales para adoptar prácticas éticas y responsables.

      Con base en todos estos argumentos y partiendo de las propuestas realizado por Estébanez  (Estébanez, 2014) y los de Lozano Borda y Pérez- Bustos (Lozano Borda, 2021) para afrontar el estudio de la IA  desde la concepción de ASCyT se asumirá el criterio referido al uso del conocimiento, desarrollo, innovación y tecnología que puede ser observado como una cualidad del uso de conocimientos en los procesos de innovación o en asociación a procesos que ponen énfasis en el uso y apropiación de la ciencia por la sociedad, como base del desarrollo y del crecimiento.



      [1] Implica que la ley necesariamente debe cumplirse. La ley, una vez publicada, se pone del conocimiento general y obliga a todos. El incumplimiento de la ley es dañoso a la normatividad del orden jurídico y encuentra el correctivo adecuado en la realización del derecho por vía del proceso. El carácter obligatorio de la ley deriva del interés social que existe en su acatamiento.

      [2] Considera norma imperativa a aquella norma jurídica que posee un contenido del que los sujetos jurídicos no pueden prescindir, de manera que la regulación normativa que se haga de la materia tendrá completa validez independientemente de la voluntad del individuo.

      [3] Cualidad de las normas jurídicas por virtud de la cual éstas tienden a ser cumplidas de forma forzosa en caso de no ser cumplidas voluntariamente, derivando un sistema de sanciones en el supuesto de su no cumplimiento voluntario.

    • En Cuba la Constitución de la República (2019) resulta la principal fuente normativa unida a las Políticas sobre la Informatización de la Sociedad en Cuba, la de Automatización, la de Desarrollo Industrial y la Integral para la Tecnología, así como el Programa Nacional de Informatización, establecen las bases fundamentales para la presentación de la Política para la Transformación Digital en el país. Existen disposiciones en el ordenamiento jurídico cubano en el campo de las Telecomunicaciones/TIC, la Informatización de la Sociedad y la Automática, que favorecen el desarrollo de la transformación digital en Cuba en la que la IA adquiere una creciente relevancia, son éstas:

      1. Decreto Ley No. 370 “Sobre la informatización de la sociedad en Cuba”, de 17 de diciembre de 2018.

      1.1. Decreto No. 359 “Sobre el Desarrollo de la industria cubana de programas y aplicaciones informáticas”, de 31 de mayo de 2019.

      1.2. Decreto No. 360 “Sobre la Seguridad de las Tecnologías de la Información y la Comunicación y la defensa del Ciberespacio Nacional”, de 31 de mayo de 2019.

      2. Decreto Ley No. 35 “De las Telecomunicaciones, las Tecnologías de la Información y la Comunicación y el uso del Espectro Radioeléctrico”, de 13 de abril de 2021.

      2.1. Decreto No. 42 “Reglamento General de Telecomunicaciones y las Tecnologías de la Información y la Comunicación”, de 24 de mayo de 2021.

      2.2. Decreto No. 43 “Reglamento sobre el uso del Espectro Radioeléctrico”, de 24 de mayo de 2021.

      3. Decreto 45 “Sobre el desarrollo integral de la automatización en Cuba”, de 23 de junio de 2021.

      4. Decreto 59 “Sobre el Desarrollo Industrial”, de 2 de noviembre de 2021.

      5. Ley 149 de 2022 de protección de datos personales.

      La Política de Transformación Digital establece como primera propuesta el establecimiento del sistema de dirección de la Transformación Digital en el que los ejes estratégicos de Marco Normativo[1] y de Educación y cultura digital[2] otorgan relevancia al tema de investigación propuesto. Asimismo, la tercera propuesta apuesta por establecer la forma y mecanismos del sistema de dirección y gestión para dirigir la transformación digital en el país y controlar el cumplimiento de su Política, de la Agenda Digital y la Estrategia de la Inteligencia Artificial, así como los Proyectos Impulsores y su elaboración como novena propuesta.

       

      Entre los objetivos específicos y líneas de acción están:

      Objetivos específicos y líneas de acción

      Principales resultados y metas

      Establecer la estrategia de la Inteligencia Artificial, para promover el desarrollo, la distribución y su uso; seguro y responsable.

      ·       Elaborada la estrategia para el desarrollo de la Inteligencia Artificial en Cuba.

      ·       Definido el marco normativo de la interoperabilidad

      Fomentar el desarrollo de capacidades digitales

      avanzadas, a partir de la formación especializada y la gestión del talento humano.

      No se especifican resultados y metas que incluyan más que el fomento el desarrollo de capacidades digitales avanzadas, a partir de la formación especializada y la

      gestión del talento humano desde la educación formal.

       

       De manera particular la Política explicita una Estrategia para el desarrollo de la inteligencia artificial en Cuba, entendida la IA como “a los sistemas que, utilizando Tecnologías de la Información, crean algoritmos, modelos y aplicaciones informáticas, realizan tareas comparables a las de la inteligencia humana, como el aprendizaje, el razonamiento, la percepción y la toma de decisiones lógicas en la solución de problemas”. P.54

       Su eje estratégico ÉTICA Y MARCO NORMATIVO propone el establecimiento de principios éticos, normas jurídicas y técnicas; así como, recomendaciones sobre aspectos técnico-organizativos y generalización de buenas prácticas tanto en la investigación, como en el desarrollo, distribución y empleo de la inteligencia artificial; teniendo en cuenta los análisis de riesgos.

      Objetivos Específicos

      1. Establecer principios éticos y regular el desarrollo, distribución y uso responsable de la Inteligencia Artificial en Cuba que faciliten el desarrollo de esta tecnología.

      2. Disponer las regulaciones, procedimientos, recomendaciones y normas, que establezcan que los productos y soluciones desarrollados distribuidos y utilizados en el territorio nacional.

      Al analizar el caso de Cuba es imposible dejar de referirnos a la XIX Convención y Feria Internacional Informática, celebrada en marzo de 2024, donde se anunciaron 18 programas nacionales relacionados con la IA y enfocados en sectores como energía, transporte, salud y educación. Estos incluían iniciativas en robótica, telecomunicaciones, neurociencias y logística, así como proyectos destinados a la sostenibilidad energética y la informatización de la sociedad. Empresas como BioCubaFarma, Datys y GeoCuba participan en supuestos planes vinculados a la bioinformática, la videovigilancia y la agricultura de precisión. Sin embargo, no se han detallado proyectos específicos ni se han mostrado resultados tangibles que justifiquen estas afirmaciones.

      Según la información oficial, BRasa es un innovador sistema conversacional desarrollado por el equipo de la Estrategia de Desarrollo de la IA (IADES), diseñado para optimizar la gestión empresarial y el comercio electrónico. Su integración con plataformas como EnZona y Business Redmine mejora procesos y facilita el desarrollo de nuevos sistemas conversacionales.

      BR Intelligent, desarrollado también por IADES, es una plataforma diseñada para el análisis avanzado de datos y la automatización de decisiones empresariales. Se integra con BRasa y utiliza recursos en la nube para garantizar un acceso eficiente a datos, automatizar servicios de atención al cliente y optimizar la gestión de proyectos.

      También se puede encontrar a Plataformia: el primer asistente de IA generativa en Cuba desarrollado por la mypime Avangenio, perteneciente al Grupo Empresarial de la Informática y las Comunicaciones (GEIC) y la CUJAE, es el primer asistente de inteligencia artificial generativa en Cuba. Ofrece servicios como corrección ortográfica, traducción y análisis de datos. A pesar de su innovación, los elevados costos y la limitada infraestructura tecnológica restringen su uso a una minoría. Además, su integración exclusiva con Transfermóvil refuerza el control gubernamental.

      En enero de 2025, durante un intercambio entre Díaz-Canel y expertos, se presentó Alic.IA, un asistente legal interactivo basado en inteligencia artificial. Diseñado para apoyar a profesionales del Derecho, y en fase de prueba desde septiembre de 2024 en Cienfuegos, Alic.IA utiliza la legislación cubana, jurisprudencia y doctrina para responder consultas legales. Aunque promete mejorar la eficiencia jurídica, también genera preocupación debido al historial del régimen cubano de manipular la ley para reprimir.

      Pero hay también aplicaciones sectoriales como son:

      Construcción: La empresa Aicros desarrolló aiBIMPro, una herramienta para optimizar la gestión de recursos en edificaciones.

      Deporte: Proyectos como Strike Zone y CompuBox C1 destacan en el monitoreo deportivo, pero su impacto es reducido debido a la falta de infraestructura.

      Turismo: El sistema ZUNpms automatiza procesos operativos en hoteles, aunque enfrenta barreras derivadas de la conectividad limitada.

      Educación: En colaboración con República Dominicana, Cuba impulsa proyectos educativos mediante tecnologías de la información y la comunicación (TICS). Sin embargo, el acceso desigual limita su alcance.

      Es indiscutible que todo ello trae aparejado retos estructurales y contradicciones pues según las cifras expuestas en la XIX Convención y Feria Internacional Informática se han desarrollado más de 2.200 investigaciones académicas relacionadas con inteligencia artificial y contar con un número significativo de profesionales capacitados. Entre los avances citados se encuentran la detección temprana de enfermedades, plataformas biométricas para el control fronterizo y sistemas inteligentes para la producción alimentaria. Sin embargo, estas proclamaciones contrastan con una realidad marcada por la obsolescencia tecnológica, una infraestructura digital insuficiente y un acceso desigual a internet que limita el impacto de dichos proyectos y chocan con una crisis económica en medio de la cual la población lucha por satisfacer necesidades básicas relacionadas con la alimentación y la salud.

      Según Yailé Caballero Mota, directora de Relaciones Internacionales de la Universidad de Camagüey y funcionaria estrechamente ligada a la estrategia oficial cubana para desarrollar la IA, muchos empresarios y directivos no perciben la utilidad de esta herramienta. Además, la falta de políticas claras para la gestión de datos agrava el panorama, mientras el discurso oficial carece de detalles concretos o planes realistas.

      Estas contradicciones no solo afectan el desarrollo interno, sino que también se reflejan en el bajo desempeño de Cuba en evaluaciones internacionales, como el Índice Latinoamericano de Inteligencia Artificial (ILIA 2024). De acuerdo con este índice, el país ocupa el puesto 15 de 19 países evaluados, dentro de la categoría más baja, denominada «exploradores». Con un puntaje de 30,50 sobre 100, Cuba muestra un ecosistema de datos extremadamente limitado, y en términos de talento humano, apenas alcanza los 29,11 puntos debido a las dificultades para formar y retener especialistas. Estos resultados confirman que los avances proclamados no se traducen en mejoras significativas ni en un impacto tangible dentro del país.

      En Cuba se emplean software, modelos y programas basados en IA, pero no sistemas inteligentes propios pues existe una carencia de servidores donde se puedan anclar las redes neuronales inteligentes que son imprescindibles para el funcionamiento de las IAs. Por el momento se están trabajando a través de proyectos de colaboración internacional con servidores extranjeros donde se depositan este tipo de redes neuronales para poder ejecutar los programas y modelos.

      En este sentido, se debe regular a la IA en los siguientes parámetros específicos en la protección de datos por medio de una evaluación y medidas técnicas para detectar riesgos y posibles afectaciones al sistema, así mismo, una regulación en la justicia para garantizar la transparencia en la toma de decisiones y proteger derechos fundamentales. Regulación para vehículos autónomos con la finalidad de garantizar la seguridad vehicular. En cuanto, a la regulación de seguridad, se debe implementar normas para garantizar la privacidad en los sistemas utilizados para vigilancia y seguridad pública.



      [1] Crear el entorno habilitador normativo e institucional que contribuya a la construcción de una sociedad digital socialista, abierta, inclusiva, participativa, basada en derechos, que analice y evolucione el marco regulatorio

      [2] Desarrollar competencias digitales en los ciudadanos para la adopción y uso de las tecnologías de manera crítica, segura, ética, consciente e innovadora, con un enfoque inclusivo, que contribuyan a la integración y al desarrollo pleno de la ciudadanía, en correspondencia con los valores del socialismo y la cultura nacional

    • 1. Michel de Certeau (Francia, 1925-1986)

      - Obra clave:"La invención de lo cotidiano"* (1980). 

      - Contribución a la AST: Introduce los conceptos de "estrategias" (poder de instituciones/dominantes) y "tácticas" (acciones de los débiles para reapropiarse de espacios/objetos).   La apropiación es un acto creativo donde los usuarios subvierten usos previstos mediante prácticas cotidianas (ejemplo, usar un celular para organización comunitaria, no solo para consumo) y la base teórica para entender la resistencia cultural en la tecnología.

      2. Roger Silverstone (Reino Unido, 1945-2006) 

      -Obra clave: "Televisión y vida cotidiana" (1994), "Domesticación de las tecnologías mediáticas"* (con Hirsch, 1992). 

      - Contribución a la AST: Desarrolla el modelo de "domesticación": proceso donde la tecnología se integra en la vida diaria mediante cuatro fases: 

          1. Adquisición (elección), 

          2. Objetificación (ubicación física/simbólica), 

          3. Incorporación (rutinas de uso), 

          4. Conversión (mostrarla al mundo exterior). 

        - La tecnología solo se "apropia" cuando se carga de significados propios en el ámbito doméstico/social (ejemplo: el computador como herramienta de trabajo vs. objeto de ocio familiar).

      3. Nelly Oudshoorn (Países Bajos) y Trevor Pinch (EE.UU./Reino Unido)

      - Obra clave:"How Users Matter: The Co-Construction of Users and Technology" (2003). 

      - Contribución a la AST:  Enfoque del "usuario como cocreador": Los usuarios no solo adoptan tecnología, sino que influyen en su diseño y evolución (ejemplo: comunidades de pacientes que modifican dispositivos médicos). Critican la visión de "usuarios implícitos" en el diseño, mostrando cómo grupos marginados (mujeres, discapacitados) reconfiguran tecnologías y vinculan la AST con los estudios de construcción social de la tecnología (SCOT).

      4. Manuel Castells (España)

      - Obra clave: "La era de la información"* (1996-2003). 

      - Contribución a la AST: Analiza cómo movimientos sociales (sociedad red) se apropian de Internet/TIC para crear contrapoder (ejemplo: Indignados, Primavera Árabe).  Destaca la brecha digital: la apropiación depende de acceso material, habilidades y proyectos sociales.  La tecnología es una estructura que puede ser reprogramada por la acción colectiva.

      5. Hebe Vessuri (Venezuela/Argentina)

      - Obra clave: "La ciencia académica en América Latina" (1990s-2000s). 

      - Contribución a la AST (enfoque latinoamericano): Estudia apropiación en contextos de desigualdad, donde tecnologías "importadas" son adaptadas a necesidades locales (ejemplo: telemedicina en zonas rurales). Critica la dependencia tecnológica y promueve innovaciones sociales desde abajo.

       

    • Araya Paz, Carlos. (2020). Desafíos legales de la inteligencia artificial en Chile. Revista chilena de derecho y tecnología, 9(2), 257-290. https://dx.doi.org/10.5354/0719-2584.2020.54489

      Ayala, C.L. (2019, 21 de diciembre). El big data del Gobierno: Los detalles del informe por el estal- lido social que entregó a la Fiscalía. LT La tercera. https://acortar.link/2D5mqg

      Banco Pichincha. (2021, 14 de diciembre). El fraude del CEO, una estafa que pone en jaque a tu negocio. https://www.pichincha.com/blog/que-es-fraude-del-ceo

      Calo, R. (2017, 19 de octubre). Política de inteligencia artificial: introducción y hoja de ruta. SSRN. https://dx.doi.org/10.2139/ssrn.3015350

      Canó, R.J. (2018, 20 de marzo). Primer atropello mortal de un coche sin conductor. El Pais. https://

      elpais.com/tecnologia/2018/03/19/actualidad/1521479089_032894.html

      Castro Castro, R. J., Chiquito Muñiz, J. J., Romero Castro, M. I., & Clavel Quintero, Y. (2022). La inteligencia artificial y sus diferencias con los sistemas expertos. Journal TechInnovation, 1(2),

      88–96. https://doi.org/10.47230/Journal.TechInnovation.v1.n2.2022.88-96

      Comisión Europea. (2020, 19 de febrero). LIBRO BLANCO sobre la inteligencia artificial–un enfo- que europeo orientado a la excelencia y la confianza. https://acortar.link/dYC6mW

      Comisión Europea. (2018, 25 de abril). EUR-Lex. https://eur-lex.europa.eu/legal-content/ES/TX- T/?uri=COM%3A2018%3A237%3AFIN

      Díaz Montero, F. (2020, 15 de enero). “No hemos encontrado ningún valor”: Fiscal Abbott desecha informe Big Data entregado por La Moneda. Biobiochile. https://acortar.link/HRQACM

      Elizalde Salazar, I. (2020). Capítulo 1. Vehículos autónomos. Desplazamiento de las reglas de responsabilidad civil del propietario al fabricante. Críticas a la propuesta. El riesgo de la circulación seguirá exitiendo. En L. Arismendy Mengual, F. Oyarzún Vargas; M.J. Santos Morón, J.R. Mercader Uguina, y P. del Olmo García (coord.). Nuevos retos del Derecho de Daños en Iberoamérica (pp. 841-858). Tirant lo Blanch.

      European Parliament. (2020, 21 de abril). Draft Report with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies. Proposal for a Regulation of the European Parliament on ethical principles for the development, deployment. https://www.europarl.europa.eu/doceo/document/A-9-2020-0186_EN.html

      Farfán Intriago, J.L. (2023). Inteligencia artificial y Derecho: ¿La justicia en manos de la IA? Frónesis, 8-13.

      Frosini, V. (2019). Cibernética, derecho, internet y sociedad. Olejnik.

      Martínez Espín, P. (2023). La propuesta de marco regulador de los sistemas de Inteligencia Artificial en el mercado de la UE. Revista CESCO De Derecho De Consumo, (46), 1–20. https://doi. org/10.18239/RCDC_2023.46.3322

      Miró Llinares, F. (2020). Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots. Revista de Derecho Penal y Criminología, (20), 87–130. https://doi.org/10.5944/rdpc.20.2018.26446

      Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2020, 7 de Septiembre). UNESDOC.

       https://unesdoc.unesco.org/ark:/48223/pf0000373434_spa

      Parlamento Europeo. (2017, 16 de febrero). Resolución del Parlamento Europeo, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)).

      https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.html

      Parra Sepúlveda, D., & Concha Machuca, R. (2021). Inteligencia artificial y derecho. Problemas, desafíos y oportunidades. Vniversitas, 70, 1–25. https://doi.org/10.11144/Javeriana.vj70.iadp

      Pons Gamon, V. (2017). Internet, la nueva era del delito: ciberdelito, ciberterrorismo, legislación y ciberseguridad/ Internet, the new age of crime: cibercrime, ciberterrorism, legislation and ci- bersecurity. URVIO. Revista Latinoamericana De Estudios De Seguridad, (20), 80–93. https:// doi.org/10.17141/urvio.20.2017.2563

      Porcelli, A. M. (2020). La Inteligencia Artificial y la Robótica: sus dilemas sociales, éticos y jurídicos. Derecho Global. Estudios Sobre Derecho Y Justicia, 6(16), 49–105. https://doi.org/10.32870/dgedj.v6i16.286

      PortalTIC. (2018, 22 de mayo). Europa Press PortalTIC.https://acortar.link/H8wkjf

      Solar Cayón, J.I. (2020). La inteligencia artificial jurídica: nuevas herramientas y perspectivas metodológicas para el jurista. Revus, 41. https://doi.org/10.4000/revus.6547

      Velazquez Palmero, C. (2023). La responsabilidad de los vehículos autónomos. EasyLaw. https://easylawmagazine.com/2023/07/27/la-responsabilidad-de-los-vehiculos-autonomos/

      Verheij, B. (2020). Artifcial intelligence as law. Artif Intell Law, 28, 181–206. https://doi.org/10.1007/s10506-020-09266-0

      Dávila-Rodríguez, L. P. (2021). Apropiación social del conocimiento científico y tecnológico. Un legado de sentidos. Trilogía Ciencia Tecnología Sociedad Vol.12 no.22 , http://orcid.org/0000-0002-0710-1475.

      Estébanez, M. E. (2014). Apropiación social de la ciencia y la tecnología. En J. Pasin & M. Mancebo (compiladoras), Universidad y sociedad. Desafíos de la investigación interdisciplinaria , 53-77.

      Lozano Borda, M. &.-B. (2021). La apropiación social de la ciencia y la tecnología en la literatura iberoamericana. Una revisión entre 2000 y 2010. Redes. Revista de estudios sociales de la ciencia y la tecnología, 18(35), 45-73.

      Neüman, M. I. (2008). Construcción de la categoría "Apropiación Social". Quórum Académico, 5(2), 67-98.

      Millas, J. (2012). Filosofía del Derecho. Ediciones Universidad Diego Portales.

      Radbruch, G. (1974). Introducción a la filosofía del Derecho. Fondo de Cultura Económica.

      Antonio-Enrique, Pérez. (2000). La seguridad jurídica: una garantía del derecho y la justicia. Boletín de la Facultad de Derecho, núm. 15.