Martes 7, Febreiro 2023
HomeOutrosIntelixencia Artificial fiable: moda ou necesidade?

Intelixencia Artificial fiable: moda ou necesidade?

por José María Alonso Moral e Alberto Bugarín Diz 

Unha das definicións que se adoita dar con máis frecuencia para a intelixencia artificial (IA) é a de “disciplina que crea máquinas para realizar tarefas que requiren intelixencia cando son realizadas por persoas” (Kurzweil, 1990). Curiosamente no noso contexto, esta definición non aparenta ser moi diferente da que poderiamos construír adaptando levemente unha das acepcións que ofrece a Real Academia Galega para o substantivo “intelixencia”, e que (descúlpennos polo atrevemento) poderiamos enunciar como “característica da máquina que semella posuír esta facultade polo seu comportamento.” Pero como indican Russell e Norvig no libro de cabeceira na formación universitaria en IA en todo o mundo (Artificial Intelligence: A Modern Approach), esta definición só contempla unha (pequena diriamos nos) parte das dimensións que debemos considerar á hora de definir algo tan amplo.  

De feito, parafraseando a estrutura dese libro de cabeceira, o Grupo de Expertos de Alto Nivel da Comisión Europea (HLEG) estableceu en 2019 unha definición máis rica, na que a IA trata de “sistemas que, dado un obxectivo complexo, actúan no mundo físico ou dixital percibindo a contorna, interpretan os datos recollidos, razoan sobre o coñecemento derivado destes e deciden a mellor acción/s para acadar o obxectivo”. Ademais inclúen a posibilidade de aprendizaxe ou adaptación para mellorar o seu comportamento en función de como as accións anteriores teñan afectado á contorna. A nova AI Act, a proposta de lexislación europea sobre IA (2021) , tamén incide nesta liña, definíndoa como aplicacións desenvolvidas utilizando determinadas técnicas ou enfoques (que enumera) e que, para un conxunto de obxectivos definidos polo ser humano, pode xerar resultados que inflúen nas contornas coas que interactúan. 

Este rexurdimento da IA é debido principalmente á concorrencia de tres factores: a proposta de novos algoritmos neuronais (aprendizaxe profunda), a existencia de inmensos repositorios de datos dos que aprender (Big Data) e as melloras tecnolóxicas na potencia e capacidade de cálculo (computación de altas prestacións).

Como definimos a IA é unha cuestión relevante porque, ao contrario do que xa se ten acuñado na fala habitual, non hai “unha” única aproximación á IA, senón moitos paradigmas da intelixencia artificial, moi diferentes entre eles, e con eidos e problemas de aplicación tamén moi diferenciados. Así, temos os pioneiros modelos de aprendizaxe automática, de mediados do século XX (redes de neuronas artificiais) e que reviviron con moita forza a comezos do século XXI, porque son esenciais hoxe en día en aplicacións moi complexas, pero tamén moi específicas, como a visión por computador (imprescindible nos vehículos autónomos) ou o tratamento da linguaxe natural (nos sistemas de tradución automática ou de corrección automática de textos). Este rexurdimento é debido principalmente á concorrencia de tres factores: a proposta de novos algoritmos neuronais (aprendizaxe profunda), a existencia de inmensos repositorios de datos dos que aprender (Big Data) e as melloras tecnolóxicas na potencia e capacidade de cálculo (computación de altas prestacións). 

Tamén son pioneiros xa desde os inicios da IA os sistemas baseados en coñecemento, nos que existe unha grande cantidade de coñecemento que é aplicado con éxito por persoas expertas na resolución de problemas complexos en campos tan diversos como a economía, a enxeñaría mecánica ou a medicina, por poñer só algúns exemplos. Curiosamente (ou non tanto), en sistemas pioneiros neste eido como o sistema experto MYCIN (1975), con máis de 600 regras para a identificación das bacterias causantes de infeccións graves, xa se contemplaron e discutiron temas que hoxe están a resultar de grande actualidade no eido da IA, como son a explicabilidade das respostas/decisións do sistema (algo esencial para asegurar a fiabilidade e a confianza por parte das persoas usuarias), a avaliación do seu funcionamento, ou as cuestións éticas sobre a responsabilidade de posibles decisións erradas derivadas das recomendacións do sistema. Chama poderosamente a atención que temas que parecen ser moi recentes e mesmo novos para unha parte da comunidade da IA, xa foron abordados de algún modo hai case medio século. Outro novo exemplo de que poucas veces hai algo novo baixo o sol. 

O HLEG agrupa paradigmas como a planificación, busca, optimización, representación do coñecemento e razoamento, aprendizaxe supervisada, non supervisada, por reforzo, e contextos de aplicación relacionados coa percepción, como a visión artificial, o procesamento da linguaxe natural ou a robótica, entre outros. 

Pero non son estes dous os únicos paradigmas ou modelos que se utilizan en IA. Sen ser exhaustivo, o HLEG agrupa en dúas grandes categorías (capacidade de razoamento e capacidade de aprendizaxe) paradigmas como a planificación, busca, optimización, representación do coñecemento e razoamento, aprendizaxe supervisada, non supervisada, por reforzo, e contextos de aplicación relacionados coa percepción, como a visión artificial, o procesamento da linguaxe natural ou a robótica, entre outros. 

O HLEG tamén introduce unha reflexión central, que mesmo a algunhas persoas lles pode parecer obvia, como é o feito de que a IA trata de sistemas (dispositivos, aplicacións ou servizos) deseñados por persoas. Esta cuestión leva a autoras como a Prof. Virginia Dignum, da Universidade de Umeå, a introducir máis recentemente novas dimensións relacionadas coa responsabilidade do uso da IA e o seu desenvolvemento. Deste xeito exponse a necesidade dun uso responsable e ético dos sistemas de IA, que ten que ir mais alá da tecnoloxía utilizada e que debe incluír necesariamente o contexto social, organizativo e institucional para asegurar a responsabilidade sobre os seus resultados e, especialmente, os principios que guían a súa interacción coas persoas.  

Por que falamos agora da Intelixencia Artificial fiable? 

A presenza crecente das aplicacións baseadas en IA, e especialmente o feito de que a interacción con elas é cada vez máis natural, que require menos esforzo, e que se produce de forma transparente para as persoas usuarias e en todo tipo de contextos (profesional, privado, familiar…), fai que a comunidade científica da IA leve tempo incidindo en que debe prestarse especial atención ás consecuencias do uso das diferentes aplicacións intelixentes, e a establecer mecanismos que aseguren a súa calidade e funcionamento correctos desde múltiples puntos de vista. Especialmente cando nos referimos a contextos onde se opera en tempo real, con grandes volumes de datos e con modelos de IA complexos e opacos (como os da aprendizaxe profunda, que involucran a millóns de parámetros cuxos valores se obteñen durante o proceso de adestramento en base a exemplos ou datos), a inintelixibilidade dos sistemas, e a súa falta de transparencia. Porque é o que dificulta que as persoas usuarias poidan ter confianza nos resultados, ou que poidan obter algún tipo de explicación ou base que sustente ditos resultados.  

A presenza crecente das aplicacións baseadas en IA fai que a comunidade científica leve tempo incidindo en que debe prestarse especial atención ás consecuencias do uso das diferentes aplicacións intelixentes, e a establecer mecanismos que aseguren a súa calidade e funcionamento correctos desde múltiples puntos de vista. 

Dotar de certas capacidades de explicación a estes modelos é actualmente unha área especialmente activa na IA, na que se utilizan técnicas diversas que van desde a linguaxe natural ata os mecanismos de atención da percepción humana ou da neurociencia. Así, de forma xeral podemos falar de que a IA debe resultar fiable, ou “digna de confianza”, na acepción da RAG. En xeral, esta fiabilidade (“trustworthiness” na bibliografía de referencia), baséase en considerar un número moi amplo de dimensións que de xeito resumido podemos agrupar en: 

  • Equidade, que consiste en que os resultados dun modelo de IA non deben exhibir nesgos que cuestionen a súa imparcialidade; deben proporcionar un trato igualitario e xusto, especialmente ás persoas ou grupos de especial protección. O aseguramento da equidade implica tanto aos datos que se utilicen para o proceso de aprendizaxe, garantindo a representatividade dos mesmos, ao uso de algoritmos que non amplifiquen os nesgos e a utilización de mecanismos de validación que contemplen os diferentes escenarios de potenciais discriminacións.  

Son numerosos os exemplos de aplicacións que teñen violado estes principios, como un recente caso nos Países Baixos que rematou coa sentenza que estableceu que o sistema Systeem Risico Indicatie (SyRI), que usaba o goberno para detectar diversas formas de fraude nas prestacións sociais, sinala aos cidadáns de menor renda e a grupos de poboación de orixe inmigrante como os máis proclives a defraudar ao Estado. Pode resultar curioso saber que en varios destes casos os modelos de IA utilizados son “árbores de decisión”, un dos modelos denominados “de caixa branca” ou transparentes, nos que se coñecen cales son as variables involucradas no proceso de toma de decisión, e os valores a partir dos que se toman as ditas decisións. A transparencia deste tipo de modelos é a que en ocasións facilita poder realizar as auditorías, revisións e probas que detectan este tipo de situacións discriminatorias, pero non é garantía a súa ausencia se este aspecto non se asegura como requirimento de deseño. 

  • Robustez e seguridade, de xeito que os sistemas baseados en IA poidan prever a ocorrencia de erros e/ou mitigar as consecuencias dos mesmos, tanto nunha operativa normal como cando poidan sufrir un ataque adversario que os faga vulnerables. Neste sentido, resulta ilustrativo o experimento realizado en 2019 pola empresa chinesa Tencent no que, realizando lixeiras modificacións nas marcas dos carrís dunha estrada de probas, puideron enganar ao autopiloto de Tesla, facendo que un vehículo invadise o carril contrario. Os modelos de aprendizaxe profunda que utiliza Tesla non teñen capacidade de adaptación para tratar situacións para as que non foron adestrados. Neste contexto, robustez refírese a que os sistemas de IA deben garantir a súa seguridade operativa (evitar prexuízos ou danos) en situacións imprevistas, excepcionais, condicións dificultosas ou de erros, ou manipulación, entre outras. 
  • Explicabilidade, que asegure que os sistemas poden proporcionar evidencias suficientes da súa correcta operación, e que estas poidan resultar comprensibles para as persoas usuarias afectadas pola dita operación. Esta característica resulta especialmente crítica en áreas sensibles, como poden ser os sistemas de soporte ao diagnóstico médico, ou as que afecten a dereitos das persoas ou os colectivos. Neste sentido, un aspecto que o tribunal sinalou como de especial relevancia no caso anteriormente mencionado de SyRI era que non se coñecía ben como o modelo utilizado (árbore de decisión) realizaba as súas estimacións do risco de que unha persoa fose cometer fraude, polo que esas persoas así identificadas non podían defenderse desa acusación, xa que non se lles proporcionaba unha explicación razoada das bases que daban lugar a esa decisión.  

Un aspecto central aquí é que o público obxectivo das explicacións é moi diverso e que na claridade da explicación inflúe decisivamente a capacidade de comprensión das persoas usuarias, así como as súas necesidades informativas, xa que non é igual por caso a explicación sobre o funcionamento dun modelo que lle debe dar a quen deseña os sistemas (por exemplo, tratándose dunha auditoría de funcionamento) que a que se lle debe dar ao público en xeral. Por outro lado, é tamén moi importante, e lexítimo, esixir explicabilidade ás aplicacións baseadas en intelixencia artificial cando moitas veces as accións ou decisións humanas son difíciles (ou mesmo imposibles) de explicar. E non só en cuestións de (in)consistencia nas decisións, senón que nunha decisión humana (mesmo a máis simple) poden xogar moitos máis factores, elementos informativos ou aspectos dos que nós mesmos podemos ser conscientes. Con frecuencia estes elementos poden ir moito mais alá da nosa propia comprensión explícita, tal e como ten recollido o paradoxo de Polanyi, que establece unha dificultade intrínseca para a intelixencia artificial e para a automatización, polo menos en certos escenarios de elevada complexidade. 

  • Trazabilidade, relacionada coa reproducibilidade e a rendición de contas, que son fundamentais cando se trata de delimitar as responsabilidades no caso, por exemplo, dun mal funcionamento dun sistema baseado en IA, especialmente se produce algún tipo de prexuízo ou dano. Algúns exemplos recentes neste contexto son os accidentes onde se ven involucrados vehículos autónomos operando en modo “autopiloto”.  Nalgún caso, como o atropelo mortal de marzo de 2018 en Arizona, a conclusión foi que o software instalado tiña erros de deseño, xa que non contemplaba a posibilidade de que un peón cruzase imprudentemente de forma imprevista.  

Outros contextos expoñen un reto, xa que un sistema dotado de aprendizaxe automática, operando de xeito máis ou menos continuo, é unha máquina distinta tras un tempo de operación (especialmente se é moi longo) do que era no momento da súa posta en marcha e, aínda máis, do que podía estar previsto no seu deseño. Gardar rexistros da operativa e evolución do sistema resulta imprescindible de cara a posibles responsabilidades, que poderían afectar a distintos actores: as persoas que deseñaron o sistema inicial ou, por exemplo, as que deseñaron o modelo de aprendizaxe que o foi modificando co tempo. 

A modo de reflexión final 
Debe haber un espazo para asegurar un correcto deseño dos diferentes modelos e sistemas baseados en IA que garanta esa tan necesaria fiabilidade. Así ocorre en ámbitos como o sanitario ou farmacéutico, nos que a posta en funcionamento de produtos réxese por protocolos e normas de calidade que son de obrigado cumprimento. 

Sendo certo que os diferentes modelos e sistemas baseados en IA incrementan a súa complexidade de forma importante (unha nova instancia da coñecida Lei de Moore para o hardware, que establece que o número de transistores que se poden integrar nun circuíto integrado duplícase cada dous anos), e que tamén as persoas moitas veces mesmo reclamamos ou demandamos a súa adopción case inmediata, non é menos certo que debe haber un espazo para asegurar un correcto deseño dos mesmos que garanta esa tan necesaria fiabilidade. Así ocorre en ámbitos como o sanitario ou farmacéutico, nos que a posta en funcionamento de produtos réxese por protocolos e normas de calidade que son de obrigado cumprimento. 

Temos aí modelos onde se poden inspirar os mecanismos de aseguramento da fiabilidade de todas as aplicacións, servizos e produtos que incorporen IA. Algúns actores de importancia, singularmente grandes corporacións, circunscriben máis ben esta cuestión ao cadro da ética, situando así o discurso nun contexto de aparente interese polo ben común, pero que á vez lles resulta acaído por non ser esixible e, xa que logo, do que non teñen que render contas.  

É neste contexto onde iniciativas europeas, como a AI Act  ou a mais recente AI Liability Directive, ou españolas, como a pioneira “Agencia Española para Agencia Estatal de supervisión de la Inteligencia Artificial”, resultan instrumentos fundamentais para asegurar a calidade dos sistemas baseados en IA. Pero tamén para actuar á vez como tractor da I+D+i en métodos e modelos de IA fiable, e así acadar o mesmo nivel de desenvolvemento e excelencia que ten acadado a IA noutros eidos.  

Do mesmo xeito que se di que os novos algoritmos e ferramentas de desenvolvemento en aprendizaxe profunda contribuíron á “democratización da IA”, estas iniciativas van intensificar o xa importante esforzo actual que a comunidade da IA está a facer en pro dunha “democratización da IA fiable.” Así poderemos facilitar a adopción da IA fiable por parte de todos os actores e dispoñer de aplicacións, produtos e servizos baseados en IA, que resulten beneficiosos por estar centrados nas persoas.


José María Alonso Moral e Alberto Bugarín Diz son investigadores do Centro Singular de Investigación en Tecnoloxías Intelixentes da USC (CiTIUS)

[td_block_7 f_header_font_transform="uppercase" ajax_pagination="next_prev" sort="" category_id="" custom_title="Novidades"]