¿Necesitamos una agencia que supervise la inteligencia artificial?

PopTika / Shutterstock

José Luis Verdegay Galdeano, Universidad de Granada

A menudo nos encontramos anuncios de productos con el sello “con inteligencia artificial”. Pero muy pocas veces, por no decir nunca, se informa al usuario de más detalles. ¿Quién nos garantiza que, efectivamente, ese producto funciona en base a inteligencia artificial (IA)? ¿Quién certifica que las respuestas que nos ofrece son las correctas? ¿A qué código ético obedece? Sin saber nada al respecto, cuando por alguna causa ese producto no funciona como esperábamos, es normal concluir que la IA no es fiable y mucho menos los algoritmos que emplea.

Pero ¿sabemos si el producto al que nos referimos funciona en base a un algoritmo? ¿Las soluciones que proporciona son siempre malas o solo lo son dependiendo del usuario? ¿El código ético de quien diseñó ese producto coincide con el nuestro? Y, a propósito: ¿quién define lo que es un comportamiento ético? ¿Cómo se mide la ética?

¿Qué es axactamente un algoritmo?

Un algoritmo es una secuencia ordenada de pasos, exentos de ambigüedad, que cuando se lleva a cabo con fidelidad en un tiempo finito da como resultado la solución del problema planteado, habiendo realizando, por tanto, la tarea para la que se diseñó. Así, para que un algoritmo sea correcto necesita cumplir lo siguiente:

  • debe terminar siempre tras un número finito de etapas;
  • las acciones que ha de llevar a cabo en cada etapa deben estar rigurosamente especificadas, sin ambigüedades;
  • los valores con los que comienza a funcionar se han de tomar de conjuntos preespecificados;
  • el resultado que proporcione siempre dependerá de los datos de entrada;
  • todas las operaciones que haya que realizar en el algoritmo deben ser lo suficientemente básicas como para que se hagan exactamente y en un periodo finito de tiempo.

Cuando no se da alguna de estas propiedades, no tenemos un algoritmo.

Los algoritmos, por tanto, no son como las recetas de cocina, que pueden tener reglas imprecisas, y como consecuencia producir resultados tan distintos como imprevisibles. Son procesos iterativos que generan una sucesión de puntos, conforme a un conjunto dado de instrucciones y un criterio de parada. Como tales, no están sujetos a restricciones tecnológicas de tipo alguno, es decir, son absolutamente independientes del equipamiento tecnológico disponible para resolver el problema que afronten. Es el programa en el que se escriba el algoritmo, el software, el que lo ejecuta en un computador.

Cuando ese programa y el algoritmo en el que se basa están diseñados con técnicas y metodologías de IA, y por tanto basadas en el comportamiento de las personas, a veces pueden surgir problemas a la hora de conocer y aceptar las decisiones que toma dicho programa.

Podemos sentirnos amenazados por creernos que esas máquinas realizan nuestros trabajos mejor que nosotros o porque nadie sepa explicar el comportamiento que tienen cuando actúan saliéndose de lo previsto, produciendo sesgos indeseables, soluciones no sostenibles o, en definitiva, porque consideremos que no tienen un comportamiento ético.

Pero esa es la versión que se ve desde el lado del usuario, es decir, de quien observa cómo se comporta ese sistema. Porque desde el lado del diseñador, a veces los resultados se ajustan exactamente a lo que conscientemente se había previsto en el algoritmo de origen y el correspondiente software que llega a los usuarios.

Contradicciones éticas

El rango de posibilidades es más que amplio. Van desde comportamientos indebidos a causa de errores fortuitos, indeseables pero inevitables, y con los que en todo caso hay que contar, hasta la comercialización totalmente interesada de sistemas basados en IA en los que su buen uso no está asegurado en ningún sentido o, incluso peor, no están basados en IA.

En cualquier caso, y desde un punto de vista muy general, es obvio que el nivel ético de un cierto software basado en IA es contexto-dependiente. Mientras que en cierto ámbito una actuación puede tacharse de falta de ética, en otros puede entenderse como idónea. Esto da lugar a situaciones contradictorias difíciles de comparar porque ni disponemos de herramientas que nos permitan valorar el comportamiento ético de un sistema basado en IA, ni de legislación que lo regule.

Por tanto, y aunque solo fuera por estas razones que brevemente se han descrito, era imprescindible incluir la creación de una Agencia Española de Supervisión de Inteligencia Artificial (AESIA) en la disposición adicional centésima trigésima de la Ley 22/2021, de 28 de diciembre de Presupuestos Generales del Estado para el año 2022.

Según se plantea, la AESIA actuará con plena independencia orgánica y funcional de las administraciones públicas, de forma objetiva, transparente e imparcial. Llevará a cabo medidas destinadas a la minimización de riesgos significativos sobre la seguridad y salud de las personas, y sobre sus derechos fundamentales que puedan derivarse del uso de sistemas de IA.

Así mismo, la agencia se encargará del desarrollo, supervisión y seguimiento de los proyectos enmarcados dentro de la Estrategia Nacional de Inteligencia Artificial, además de aquellos impulsados por la Unión Europea, en particular los relativos al desarrollo normativo sobre la IA y sus posibles usos.

¿Dónde se ubicará?

De cara a seleccionar la ubicación de la agencia, el Real Decreto 209/2022, del 22 de marzo establece el procedimiento a través del cual se determinará el término municipal en el que se ubicará su sede física.

La agencia funcionará como una autoridad pública independiente encargada de garantizar a la sociedad, desde la perspectiva de servicio público, la calidad, seguridad, eficacia y correcta información de los sistemas basados en IA, desde su investigación hasta su utilización. Para ello dispondrá de mecanismos objetivos de evaluación, certificación y acreditación de los sistemas basados en IA, cuya ausencia actual planteábamos al comienzo de este artículo.

La elección de la sede física de la AESIA corresponderá a una Comisión consultiva, por cierto, ya creada.

Sea cual sea el municipio en el que se instale, su funcionamiento tendrá que ajustarse estrictamente a todos y cada uno de los anteriores principios. Por tanto, no parece oportuno que las diferentes candidaturas que se postulen para albergar su sede vengan avaladas por empresas del sector, ya sean nacionales o internacionales. La intervención directa o indirecta de estas compañías podría poner en tela de juicio la necesaria independencia de la agencia.

Cosa distinta es que el sector empresarial, que desempeña un papel clave en todo lo concerniente al desarrollo de la IA, avale y respalde la iniciativa gubernamental acerca de la creación de la AESIA, pero sin apostar por una ubicación concreta.

Pero la AESIA no puede quedarse solo en una agencia nacional que actúe de manera aislada. Deberá alinearse con la estructura orgánica que la Unión Europea diseñe, particularmente con la futura Junta Europea de Inteligencia Artificial.

La agencia también deberá ajustarse a la legislación europea. Ya hay un borrador de reglamento del Parlamento y del Consejo Europeo que establece normas armonizadas en materia de IA. La conocida como Ley de la Inteligencia Artificial, persigue definir una métrica para evaluar el impacto social de los algoritmos en el sector industrial, exigir la transparencia algorítmica, su explicabilidad, y acreditar su calidad ética.

Como conclusión, respondiendo a la pregunta que planteábamos al principio, la AESIA no solo es imprescindible sino que necesitamos que empiece a funcionar tan pronto como sea posible de manera independiente, con credibilidad y con medios suficientes. Pero nada de ello será eficaz sin una legislación que regule la producción, uso y funcionamiento de los sistemas basados en IA; que asegure y proteja a las personas y que esté tan consensuada en el ámbito europeo como sea posible.The Conversation

José Luis Verdegay Galdeano, Catedrático de Ciencia de la Computación e Inteligencia Artificial, Universidad de Granada

Este artículo fue publicado originalmente en The Conversation. Lea el original.

__________________________________

Postiamo una traduzione in italiano per facilitare la lettura dell’articolo.La traduzione e stata effettuata con google translator. Pertanto per gli usi professionali occorre avvalersi dell’articolo in lingua originale.

 

Abbiamo bisogno di un’agenzia per supervisionare l’intelligenza artificiale?

Spesso ci imbattiamo in annunci pubblicitari per prodotti etichettati “con intelligenza artificiale”. Ma molto raramente, se non mai, l’utente viene informato di maggiori dettagli. Chi ci garantisce che questo prodotto funzioni effettivamente sulla base dell’intelligenza artificiale (AI)? Chi certifica che le risposte che ci offre siano quelle corrette? A quale codice etico obbedisce? Senza saperne nulla, quando per qualche motivo quel prodotto non funziona come previsto, è normale concludere che l’IA non è affidabile, tanto meno gli algoritmi che utilizza.

Ma sappiamo se il prodotto a cui ci riferiamo funziona in base ad un algoritmo? Le soluzioni che fornisci sono sempre pessime o sono solo pessime a seconda dell’utente? Il codice etico di chi ha ideato quel prodotto coincide con il nostro? E, a proposito: chi definisce cos’è un comportamento etico? Come si misura l’etica?

Che cos’è esattamente un algoritmo?

Un algoritmo è una sequenza ordinata di passaggi, priva di ambiguità, che se eseguita fedelmente in un tempo finito, porta alla soluzione del problema posto, avendo così svolto il compito per cui è stato progettato. Pertanto, affinché un algoritmo sia corretto, deve soddisfare quanto segue:

  • deve sempre terminare dopo un numero finito di passaggi;
  • le azioni da svolgere in ogni fase devono essere rigorosamente specificate, senza ambiguità;
  • i valori con cui inizia a lavorare devono essere presi da set prestabiliti;
  • il risultato che fornirai dipenderà sempre dai dati di input;
  • tutte le operazioni che devono essere eseguite nell’algoritmo devono essere sufficientemente basilari per essere eseguite esattamente e in un periodo di tempo finito.

Quando nessuna di queste proprietà è data, non abbiamo un algoritmo.

Gli algoritmi, quindi, non sono come le ricette di cucina, che possono avere regole imprecise, e di conseguenza produrre risultati tanto diversi quanto imprevedibili. Sono processi iterativi che generano una successione di punti, secondo un dato insieme di istruzioni e un criterio di arresto. In quanto tali, non sono soggetti a vincoli tecnologici di alcun tipo, ovvero sono assolutamente indipendenti dalle apparecchiature tecnologiche disponibili per risolvere il problema che devono affrontare. È il programma in cui è scritto l’algoritmo, il software , che lo esegue su un computer.

Quando questo programma e l’algoritmo su cui si basa sono progettati con tecniche e metodologie di intelligenza artificiale, e quindi basati sul comportamento delle persone, a volte possono sorgere problemi nel conoscere e accettare le decisioni prese da tale programma.

Possiamo sentirci minacciati credendo che queste macchine svolgano il nostro lavoro meglio di noi o perché nessuno sa spiegare il loro comportamento quando agiscono fuori del previsto, producendo pregiudizi indesiderabili , soluzioni insostenibili o, in breve, perché riteniamo che lo facciano non comportarsi eticamente. .

Ma questa è la versione che si vede dal lato dell’utente, cioè da colui che osserva come si comporta quel sistema. Perché dal lato del progettista, a volte i risultati sono esattamente conformi a quanto previsto consapevolmente nell’algoritmo sorgente e nel software corrispondente che arriva agli utenti.

contraddizioni etiche

La gamma di possibilità è più che ampia. Si va da comportamenti scorretti dovuti a errori fortuiti, indesiderabili ma inevitabili, e comunque da non sottovalutare, al marketing totalmente egoistico di sistemi basati sull’IA in cui non è garantito in alcun modo il loro corretto utilizzo o, addirittura, peggio, non si basano sull’IA.

In ogni caso, e da un punto di vista molto generale, è ovvio che il livello etico di un certo software basato sull’IA dipende dal contesto. Mentre in un determinato campo un’azione può essere bollata come non etica, in altri può essere intesa come appropriata. Ne derivano situazioni contraddittorie e difficilmente confrontabili perché non abbiamo gli strumenti che ci consentano di valutare il comportamento etico di un sistema basato sull’IA, né la normativa che lo regola.

Pertanto, anche solo per questi motivi che sono stati brevemente descritti, era essenziale inserire la creazione di un’Agenzia spagnola per la supervisione dell’intelligenza artificiale (AESIA) nell’ulteriore disposizione centotrenta della Legge 22/2021, del 28 dicembre del Bilancio Generale dello Stato per l’anno 2022 .

Come proposto, l’AESIA agirà con piena indipendenza organica e funzionale dalle pubbliche amministrazioni, in modo oggettivo, trasparente e imparziale. Attuerà misure volte a ridurre al minimo i rischi significativi per la sicurezza e la salute delle persone e per i loro diritti fondamentali che possono derivare dall’uso dei sistemi di IA.

Allo stesso modo, l’agenzia si occuperà dello sviluppo, della supervisione e del monitoraggio dei progetti inquadrati nella Strategia Nazionale di Intelligenza Artificiale , oltre a quelli promossi dall’Unione Europea, in particolare quelli relativi allo sviluppo normativo sull’IA e i suoi possibili usi .

Dove si troverà?

Al fine di selezionare la sede dell’agenzia, il regio decreto 209/2022, del 22 marzo, stabilisce la procedura attraverso la quale sarà determinato il termine comunale in cui sarà ubicata la sua sede fisica.

L’agenzia funzionerà come un’autorità pubblica indipendente incaricata di garantire alla società, dal punto di vista del servizio pubblico, la qualità, la sicurezza, l’efficacia e la corretta informazione dei sistemi basati sull’IA, dalla loro ricerca al loro utilizzo. Per fare ciò, disporrà di meccanismi di valutazione oggettiva, certificazione e accreditamento per i sistemi basati sull’intelligenza artificiale, di cui abbiamo discusso all’inizio di questo articolo.

L’elezione della sede fisica dell’AESIA corrisponderà ad una Commissione consultiva, tra l’altro, già costituita.

Indipendentemente dal comune in cui è installato, il suo funzionamento dovrà rispettare rigorosamente ciascuno dei suddetti principi. Pertanto, non sembra opportuno che le diverse candidature che si candidano ad ospitare la sua sede vengano avallate da aziende del settore, siano esse nazionali o internazionali. L’intervento diretto o indiretto di queste società potrebbe mettere in discussione la necessaria indipendenza dell’agenzia.

Un’altra cosa è che il settore delle imprese, che gioca un ruolo fondamentale in tutto ciò che riguarda lo sviluppo dell’IA, avalli e supporti l’iniziativa del governo sulla creazione dell’AESIA, ma senza scommettere su un luogo preciso.

Ma l’AESIA non può restare solo un’agenzia nazionale che agisce in isolamento. Dovrebbe essere allineato con la struttura organica che l’Unione Europea progetta, in particolare con il futuro Comitato Europeo per l’Intelligenza Artificiale .

L’agenzia dovrà inoltre conformarsi alla legislazione europea. Esiste già una bozza di regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’IA. La cosiddetta Legge dell’Intelligenza Artificiale, cerca di definire una metrica per valutare l’impatto sociale degli algoritmi nel settore industriale, esigere trasparenza algoritmica, la sua spiegabilità e accreditarne la qualità etica.

In conclusione, in risposta alla domanda che ci siamo posti all’inizio, l’AESIA non è solo essenziale, ma serve che inizi ad operare al più presto in modo autonomo, con credibilità e con mezzi sufficienti. Ma nulla di tutto ciò sarà efficace senza una legislazione che regoli la produzione, l’uso e il funzionamento dei sistemi basati sull’intelligenza artificiale; che protegga e protegga le persone e che sia il più consensuale possibile a livello europeo.