» El futuro de la investigación legal está aquí OK

COLUMNA – Regular el acceso al «cerebro» de la IA

10 de septiembre de 2023
COMPARTIR

Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras. 

Por el Lcdo. Jaime L. Sanabria (ECIJA SBGB)

El grado de evolución de los seres humanos, tan complejo, tan plural, tan capaz de erigir un mastodonte vertical como la torre Burj Khalifa de Dubai con sus 2,717 pies de altura, la Estación Espacial Internacional, el Gran Colisionador de Hadrones o lo que, en un momento fue, el radiotelescopio de Arecibo, tan nuestro que fue, se debe, sin duda, a la complementariedad de las inteligencias, a ese sumar de capacidades que unos aportan para suplir las carencias de otros y viceversa.

Son múltiples los campos, las áreas, los territorios de la civilización que requieren de la potencia del órgano más complejo de la evolución para sostener ese desarrollo evolutivo incesante: el cerebro, el humano, el nuestro, el tuyo, incluso el mío.

Sin embargo, desde hace algún tiempo, un nuevo tipo de inteligencia, de hecho, una que imita nuestro cerebro, se está sumando a las existentes, y según apreciaciones de no pocos expertos, para revolucionar los espacios de progreso, desde los laborales a los científicos, desde los docentes hasta los judiciales, desde los productivos hasta los extractivos, y es que no hay un solo apartado del hoy que quede al margen de las siglas AI, la Inteligencia Artificial.

No obstante a su penetración en nuestra cotidianidad, una herramienta que se popularizó no hace más de dos años, el Chat GPT, ha hecho estallar la AI en todos los segmentos de la sociedad y, a su vez, ha concienciado a los distintos estamentos, desde los legisladores hasta los usuarios finales tanto de las virtudes como de los riesgos que entraña, no solo la aludida estrella «callejera» de la IA, sino, y sobremanera, de todos aquellos procesos que se sirven de la Inteligencia Artificial para ordenar o desordenar nuestras vidas.

Han sido múltiples los pronunciamientos de distintos colectivos advirtiendo, sobre todo a raíz de la aparición de esa manifestación estelar y popular de la IA, de los riesgos de desestructuración que corre la actual sociedad si no se acota la potencial capacidad de injerencia de las herramientas que sustentan la IA, en particular, el GPT. Han habido múltiples llamados a la preservación de la ética, múltiples también las alusiones a dotar a la IA de la necesaria robustez técnica y todavía más numerosas las expresiones alusivas a su legalidad, a procurar que esa IA no traspase los espacios privados de las personas como individuos libres ni tampoco los espacios laborales, en particular estos últimos, regidos de ordinario por los patronos y por los organigramas directivos de las grandes corporaciones.

Manteniéndonos en el ámbito laboral, se debe requerir una escrupulosidad no solo manifiesta sino auditada en la aplicación de cualquiera de los algoritmos que suplen algunas de las actividades que hasta no hace demasiado eran exclusiva de los cerebros humanos.

Como era de prever, los Gobiernos y las ligas de países se han adentrado en el asunto (mucho antes de la popularización del Chat GPT) para tratar de regular algo que de entrada parece, y todavía se sigue pareciendo, hermético, impenetrable a ciertos mecanismos de control, pero tanto los Estados Unidos con su Proyecto de Ley conocido como el «No Robot Bosses Act», que el Congreso tiene pendiente de tramitación, como el estado de Nueva York, como la Unión Europea, por lo general en vanguardia en lo que concierne a regulación normativa, están implicadas en que la IA no se exceda, ni se entrometa, ni tergiverse de más las vidas de los ciudadanos que están bajo su tutela jurídica.

También la OCDE, desde su transnacionalidad, creó en su momento un Consejo de Inteligencia Artificial que emitió un informe, allá para el 2019, con recomendaciones sobre el uso ético de la IA.

No obstante, pese a la implementación progresiva, imparable, de la IA, que entre otras muchas aplicaciones determina reconocimientos faciales y de otros sentidos, robótica, creatividad literaria y musical, creación de redes neuronales inteligentes, incluso replicantes, biomedicina, sofisticación de elaboración de productos en impresoras 3D, avances en la computación cuántica, no fue hasta la aparición de archifamoso Chat GPT cuando, incluso, los propios desarrolladores de esta herramienta tomaron conciencia de los potenciales efectos nocivos que el mal uso que esa tecnología podía provocar y solicitaron, en primera persona, a Gobiernos y organismos e instituciones supragubernamentales su regulación; alguno, incluso, dimitió de su puesto de trabajo por considerar que había podido causar un perjuicio irreparable a la humanidad.

De vuelta al escenario laboral, cabe señalar que la inteligencia artificial plantea un buen número de incertidumbres, hasta el punto de que se ha llegado a afirmar que el cambio tecnológico que abandera advierte de una disrupción en los modos y formas de entender el futuro próximo de la idea del trabajo y ello obliga, necesariamente, a repensar el papel del Derecho frente a este tsunami de cambios.

Algunos países de la UE, como mencionábamos, de ordinario rápida en reaccionar a través de legislación hacia los nuevos retos que impone el progreso, ya han regulado sobre los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles de los candidatos.

Se pretende que el patrono informe a los empleados, bien potenciales, bien asentados, sobre las intimidades de la construcción de los algoritmos a través de los representantes de los trabajadores para evitar prácticas que pudiesen fomentar el discrimen por razones de sexo, creencias, aspecto físico, orientación sexual o cualquier otro aspecto ajeno a las capacidades inherentes para cubrir un puesto de trabajo cuando el algoritmo, por ejemplo, afecta el reclutamiento de personal.

Algo parecido busca para los despidos, ya sean individuales o colectivos, siempre con la necesidad imperativa de que los patronos notifiquen los criterios de programación que han dado pie a la toma de determinadas decisiones.

No obstante lo anterior, las premisas recogidas en determinadas leyes europeas que tratan de que las personas encargadas de contratar, evaluar, amonestar, ascender o despedir no se amparen con impunidad en unos códigos binarios y se escuden en que es «la máquina» quien decide y lo hace de un modo frío, todavía se exhiben en los articulados de un modo en exceso vagos y generales, sin tomar en consideración demasiada casuística que va surgiendo a medida que las ramificaciones de la IA se expanden hasta recovecos que, hasta hace poco, parecían a salvo de su intromisión.

En Puerto Rico se propuso, en abril de este mismo año y a través del Proyecto del Senado 1179, la creación de un Oficial de Inteligencia Artificial del Gobierno de Puerto Rico, que si bien suponía un primer paso, la iniciativa resultaba pírrica al tratarse solo de una figura personal, sin capacidad legislativa per se, muy alejado el momento de las zancadas legislativas que ya existen en numerosos países de la UE y también en otros de los considerados avanzados como Australia y Nueva Zelanda. El primero de estos ya adoptó, en 2018, una serie de principios éticos sobre el uso de la IA; incluso, en la actualidad está valorando prohibir la IA de «alto riesgo».

Quizá sea el momento de promover en Puerto Rico algo más que un mero cargo de vigilancia y legislar sobre el tema y adecuarnos a los tiempos y a los ritmos de otras naciones y a los de la propia evolución. Resulta indudable que la IA es un instrumento de desarrollo para cualquier ente que la incorpore como parte de sus prácticas, por lo menos su parte luminosa y transparente, pero cuando se opaca, cuando se puede convertir en una muro de prácticas poco transparentes para el ciudadano común, es deber de las autoridades penetrar, incluso furtivamente, en sus circuitos.

Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras. 

Powered by Microjuris.com