» El futuro de la investigación legal está aquí OK

COLUMNA – La regulación de la Inteligencia Artificial

18 de diciembre de 2023
COMPARTIR

Las opiniones expresadas en esta columna son responsabilidad exclusiva de los autores y no reflejan necesariamente las de Microjuris.com. Las columnas pueden enviarse a mad@corp.microjuris.com y deben tener de 600 a 800 palabras.

Por el Lcdo. Jaime L. Sanabria (ECIJA SBGB)

Parece un oxímoron. Inteligencia y artificial. Una mistura de palabras disyuntivas per se. La IA como una sigla que ha penetrado en conscientes y subconscientes de los ocho mil millones y pico de seres humanos que conformamos la humanidad; la IA como la etiqueta tecnológica más predominante de este momento del primer cuarto de siglo XXI; la IA como paradigma de unos tiempos en los que el futuro se va aproximando, incluso sobrepasando, a las predicciones imaginativas de los escritores y guionistas de ciencia ficción.

No obstante, el término, el concepto de IA, se ha convertido en una inmensa caja en la que se integra cualquier evolución derivada de una tecnología que avanza a velocidad supralumínica, manoseada, excitada, musculada, exprimida por decenas de miles de equipos investigadores de las más variadas disciplinas distribuidos por la ingente demografía de una Tierra necesitada de sobreprotección para no verse abocada al colapso.

Aunque los orígenes de la IA se remontan a los años 30 del siglo anterior, con dos personajes claves para el desarrollo de la computación: Alan Turing y Janos Von Neuman, inglés y húngaro, respectivamente, recogidas sus vidas a través del arte, la del primero en una excelente película titulada «The Imitation Game», y la del segundo en una reciente obra de un escritor chileno-neerlandés, Benjamín Labatut, titulada «Maniac».

Pese a que los primeros coqueteos mediáticos de la IA datan de 1996, cuando Deep Blue, un programa de ajedrez consiguió derrotar a Gary Kasparov, el ajedrecista más grande de la historia, no fue hasta los comienzos de la segunda década del presente siglo cuando cobró notoriedad y, en los inicios de esta tercera década, cuando se ha desarrollado en progresión geométrica.

Hasta tal punto la IA se ha multiplicado por sí misma que ha ido provocando que numerosas voces de distintos ámbitos hayan alertado de sus peligros, de un exceso de toma de control de demasiados hábitats, conductas y modus operandi. Uno de los episodios más sobrecogedores de la IA se dio en el 2016, cuando un software de Inteligencia Artificial bautizado como AlphaGo logró «dar una pela» al surcoreano Lee Sedol, el mejor jugador de todos los tiempos de Go (el juego de tablero más complejo que plantea un número de partidas potenciales superior a los átomos existentes en el universo observable).

El software fue aprendiendo de sus propios errores y perfeccionándose hasta unos niveles perturbadores hasta el punto de que, por su capacidad casi infinita de computación, solo podía jugar contra otro software, quedando los humanos en una posición de inferioridad, de enanismo frente a la «máquina».

La IA ha ido colonizado casi todos los campos de la actividad humana, incluso sus desarrolladores más conspicuos han advertido de los riesgos que podría tener su potencial independencia para evolucionar por sí misma y adquirir niveles de consciencia, más bien de autoconsciencia, capaces de confundir a los usuarios sobre su naturaleza. Incluso, uno de los gurús del presente, el inefable Elon Musk, tan contradictorio, tan hiperbólico, tan mesiánico, declaró no hace mucho que la IA podría causar la destrucción de la civilización, pero no ha dejado de invertir en ella. Incluso, sugirió una pausa de seis meses para protocolizar el uso de determinadas herramientas como el GPT-4, la versión más evolucionada del ChatGPT.

En marzo de este ya casi moribundo año 2023, economistas de Goldman Sachs señalaron que, hasta 300 millones de empleos a tiempo completo, en todo el mundo, podrían automatizarse de alguna manera con la nueva ola de IA. Pero, si bien los lugares de trabajo pudiesen cambiar o evolucionar, la adopción generalizada de la IA podría, en última instancia, aumentar la productividad laboral y aumentar el PIB mundial en un 7% anual durante un periodo de 10 años, según Goldman Sachs.

No dejan de ser predicciones, proyecciones, incluso profecías, y la mayoría acaba por tapizar el olvido, pero lo cierto es que el aluvión de llamadas de atención durante los últimos años ha hecho que algunos gobiernos –pocos– y algún ente supranacional se hayan tomado en serio la amenaza y han comenzado a bosquejar o promulgar leyes y reglamentos para regular el uso y la proliferación libérrima de la IA, en un intento no ya de reprimir su evolución –algo imposible–, pero sí de fijar sus límites y establecer qué prácticas serían constitutivas de delito para frenar un uso abusivo y/o fraudulento.

Como suele ser habitual, ha sido la Unión Europea, pionera en la salvaguarda de la ética en no pocas actividades de los ciudadanos de sus 27 países miembros y este segundo semestre bajo presidencia española, la que tras años de recopilación de información y un intenso trabajo ha dado vida provisionalmente a un Reglamento de Inteligencia Artificial («Reglamento IA»). El mismo, aparte de definir lo que es un «Sistema IA» y establecer un ámbito de aplicación, incluye una serie de usos prohibidos de la tecnología, aquellos que presentan un «riesgo inaceptable» o «alto riesgo» o «riesgo limitado» o «riesgo mínimo» para la sociedad.

Se establecen, además, condiciones para el uso de las tecnologías que puedan presentar riesgos sistémicos como, por ejemplo, un alto nivel de transparencia o la mitigación de riesgos. Esta lista podrá modificarse a través de un acto delegado de la Comisión Europea, un sistema que se ha pensado para que la Unión Europea pueda reaccionar rápidamente ante la aparición de nuevas tecnologías, una experiencia que los colegisladores han aprendido bien durante los últimos años: desde que el Ejecutivo comunitario hizo su propuesta inicial, en el año 2021, han aparecido los «modelos fundacionales» como ChatGTP cuya velocidad de expansión ha cambiado, por completo, el trabajo de los legisladores.

El punto más sensitivo del Reglamento IA estriba en el uso que los cuerpos policiales podrán hacer de las cámaras de identificación biométrica en espacios públicos, cuando sea para garantizar la seguridad nacional, siempre que haya autorización judicial previa y la amenaza «genuina y previsible» o «genuina y presente».

Estas cámaras de identificación biométrica se podrán usar para identificar a terroristas, autores de delitos contra el tráfico de personas, explotación sexual y para buscar a las víctimas de estos delitos, pero en ningún caso para categorizar biométricamente por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual, ni tampoco por su comportamiento o características personales, ni la inteligencia artificial capaz de manipular el comportamiento humano. Este último apartado se hace extensivo a los lugares de trabajo, donde los reclutadores de personal no podrán hacer uso de estas tecnologías para seleccionar a los futuros empleados.

Por otro lado, existen algunos países en los que se han presentado iniciativas para fijar los límites legales y de uso de la IA. El Congreso chileno ha abordado una iniciativa para regular la inteligencia artificial a través de un proyecto de ley que regula los «Sistemas de Inteligencia Artificial, la Robótica y las Tecnologías Conexas». También Brasil mantiene dos proyectos de ley, en particular el de 2023, que presenta el mismo enfoque que el de la UE y extiende sus tentáculos legales a la regulación de los derechos de las personas afectadas por la inteligencia artificial.

Del mismo modo, Argentina, tan sonada en estos días, ha aprobado una serie de «Recomendaciones para una IA fiable», orientadas exclusivamente a quienes formen parte del sector público y que están basadas sobre todo en estándares internacionales sobre principios éticos de la inteligencia artificial.

China, el país que más aportaciones está haciendo a la IA en estos momentos, ha promulgado las «Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa de China», entradas en vigor el 15 de agosto de 2023 y que establecen una serie de reglas que los distintos componentes de la cadena de valor de la inteligencia artificial deben observar en el desarrollo de esta tecnología. Aunque las medidas no tienen el alcance de las de la UE, abordan desde cuestiones políticas que deben ser tomadas en cuenta por los desarrolladores de contenido con inteligencia artificial; pasando por cuestiones de discriminación, ética comercial, transparencia, almacenamiento de datos, obligaciones de los proveedores y derechos de los usuarios.

Otro ente transnacional, la OCDE, integrado por 36 países, firmó, aunque ya en mayo de 2019 (obsoleto pues), un primer conjunto de directrices de políticas intergubernamentales en materia de inteligencia artificial, que consideran seis principios y cinco recomendaciones para la elaboración de políticas públicas o regulaciones sobre Inteligencia Artificial.

También nuestro país supuestamente protector, los Estados Unidos de América, anunció por conducto de su presidente, Joe Biden, el 30 de octubre de este mismo año, que Estados Unidos también regulará la IA a través de una orden ejecutiva con la que, por primera vez, el Gobierno federal del país establecerá una serie de normas para limitar los riesgos de los sistemas más avanzados.

Entre ellas, se exigirá que los productos capaces de hacer peligrar la seguridad se sometan a una serie de pruebas y se notifiquen los resultados al Ejecutivo antes de las compañías lanzar dichos productos, supervisados de forma constante para valorar sus riesgos. También se recomendará a las compañías de IA generativa que señalen las fotos, vídeos y audios creados con esta tecnología para que no se confundan con contenido real, si bien eso no será obligatorio.

Los legisladores de Puerto Rico no son ajenos a esta corriente normativa que fluye por pocos gobiernos del planeta y algo se comienza a mover. Hace apenas una semana, legisladores de nuestro país evaluaron 14 leyes implementadas por Estados Unidos para regular el uso de algoritmos de IA, leyes que no se adentraban en los conceptos éticos, pero que marcaban un camino. De hecho, en días recientes, se está proponiendo enmendar nuestro Código Penal para incluir, como delito, el fraude mediante IA. Y aunque el proyecto de ley está en pañales y debe enmendarse significativamente para atemperarlo a la realidad puertorriqueña y que cumpla con nuestra Constitución es, sin ambages, uno de esos primeros pasos formales en esa dirección.

En fin, Puerto Rico no debe quedar al margen del tsunami regulatorio y legislativo de la IA que parece extenderse por el mapamundi, ni tampoco puede limitarse a importar lo del continente cuando ya sea una realidad legal.

Puerto Rico necesita anticiparse, dejar de parasitar, sacudirse cualquier complejo de dependencia, y tomar la iniciativa de las iniciativas, y me redundo a propósito. La regulación de la IA solo es una de las múltiples facetas que debemos abordar con independencia territorial, talento nos sobra, exhibámoslo.

Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras. 

Powered by Microjuris.com