A localización da Axencia Española de Intelixencia Artificial (IA) na cidade de A Coruña coincide coa pioneira lexislación da Xunta de Galicia sobre desenvolvemento e impulso da IA na nosa terra (Lei 2/2025). Como non podía ser menos a lei autonómica remítese a un recente Regulamento (2024/1689) europeo sobre IA.
Nas cuestións tecnolóxicas veño mantendo que, no seu desenvolvemento e impulso, é crucial distinguir situacións de risco de situacións de incerteza tal como preciso nun ensaio recente (1). Abonde un exemplo para entender a diferenza crucial entre risco e incerteza: unha compañía de seguros cubrirá o risco derivado dun posible incendio na casa, pero non nunha central nuclear, porque neste caso enfronta unha situación de incerteza. Nun risco podemos avaliar a probabilidade e a cantidade de danos, pero nas incertezas enfrontamos unha escala de danos imprevisible e unha probabilidade letal por minúscula que sexa. Nunha incerteza estamos diante dunha fonte de danos que non se presta a cálculo: nin da súa gravidade, nin da súa probabilidade.
Pois para asumir que coa IAS entramos nun camiño da incerteza, e non do risco, abonda con que exista algunha posibilidade de que nos atopemos nesa lea.
Se facemos caso das compañías de seguros para as que o risco nuclear non é asegurable, non debemos confiar en moitos enxeñeiros e directivos. Porque cando falan de cálculo de riscos trátase, en realidade, de incerteza (2): “cando o seguro privado se lava as mans, cando os riscos económicos dos seguros semellan demasiado grandes ou demasiado imprevisibles“. Co que, cando se trata de identificar incertezas, podemos utilizar ás compañías de seguros como “pesimistas tecnolóxicos fiables“. E non debe sorprendernos ese pesimismo asegurador pois, segundo The Economist (7 de febreiro de 2015), o custo da xestión do accidente de Fukushima en 2011 podería alcanzar os catrocentos mil millóns de dólares.
Fronte este dilema crucial, chama a atención que a Comisión Europea, en documentos sobre a aparición masiva da intelixencia artificial (IA), a robótica e o chamado Internet das Cousas, só fale dos riscos destas tecnoloxías. Así no seu “Informe sobre as implicacións de seguridade e responsabilidade da intelixencia artificial, a Internet das cousas e a robótica” (2020), mentres que o concepto de risco aparece nada menos que sesenta e tres veces, o de incerteza faino só unha vez, referido ao marco normativo, non ás tecnoloxías en cuestión (3). E no Regulamento do ano 2024 sobre IA -citado ao comenzo- “risco” aparece nada menos que 767 veces en 125 páxinas, mentres que “incerteza” non o fai ningunha.
Moitos riscos, pero ¿está tan segura a Comisión Europea de que non se dan as condicións para falar de incerteza nestes asuntos? Sería unha estraña seguridade, porque un suceso catastrófico derivado destas tecnoloxías sería posible —aínda que imprevisible e imposible de calcular probabilidades— na medida en que se fala de ameazas difíciles de predicir, e cuxa orixe será moi difícil de identificar. Debido á enorme complexidade ou problemas de caixa negra asociados á intelixencia artificial.
O propio Goberno español semella estar algo menos seguro, afortunadamente, cando no seu recente “Plan España Digital 2025” utiliza dez veces o concepto de risco (en relación ao 5G, a súa mitigación ou a súa minimización) e tres veces, o que xa é algo, o concepto de incerteza (4). Mentres no derradeiro informe sobre desenvolvemento humano (5) do PNUD, adicado a IA, se cita máis veces incerteza na bibliografía consultada que no propio texto (en total 10 veces, fronte a risco case 200 veces).
Mentres tanto para o que se deu en chamar IAS (intelixencia artificial sobrehumana, resultado da combinación de big data e IA), Nick Bostrom, director do Institute on the Future of Humanity e do Program on the Impacts of Future Technologies no Reino Unido, enumera nun recente ensaio (6) non poucos motivos para concluír que non estamos diante situacións de riscos manexables, pois “superintelixencia non é sinónimo de perfección e, con toda seguridade, produciranse fracasos espectaculares”.
Sendo así que, cando este investigador se pregunta que podemos facer para dirixir unha explosión de IA que aumente as posibilidades de conseguir un resultado beneficioso, o certo é que non está en condicións de asegurar, nin tan sequera de estimar, que o desenlace non sexa unha catástrofe. Pois só así podemos entender o título do capítulo oitavo do seu ensaio: “¿É a apocalipse o desenlace inevitable?”.
Tal como sucede de cheo coa Lei aprobada en Galicia neste ano 2025 sobre IA que, por suposto, non se refire nunca a problemas de “incerteza”, malia a falar trinta e oito veces de riscos.[…] Estamos diante dun novo, e temerario, optimismo galego.
Pois para asumir que coa IAS entramos nun camiño da incerteza, e non do risco, abonda con que exista algunha posibilidade de que nos atopemos nesa lea. Non abonda con buscar máis control ou seguridade (no seu capítulo 9), nin con tentar ver como podemos dominar ou manter a distancia á IAS (no capítulo 12). Porque tal control e dominio non se poden asegurar dun xeito categórico e concluínte.
El mesmo recoñece que moitas das técnicas que pode imaxinar no camiño da explosión da IAS é moi probable que se produzan a tal velocidade que o tempo dispoñible para prepararse e avanzar no problema do seu control sería imposible. Nesta materia non abonda simplemente con “reducir ou limitar o risco de dinámicas distópicas“. Porque se o que está en xogo é a eventual extinción da especie humana -como el mesmo acepta- só é aceptable o risco cero. E iso é imposible. Como ben sinala ao final do seu libro neste asunto a euforia ilustrada (tecnófila) está fóra de lugar.
Pero tamén o está a posición de todos aqueles que, como Bostrom, confían en (reducir, mitigar) xestionar o asunto. Tal como sucede de cheo coa Lei aprobada en Galicia neste ano 2025 sobre IA que, por suposto, non se refire nunca a problemas de “incerteza”, malia a falar trinta e oito veces de riscos (7). Mesmo un número de riscos por páxina do documento galego que rebaixa a décima parte o que se facía no Regulamento europeo. Estamos diante dun novo, e temerario, optimismo galego.
______
1 Prada, A. (2024), ¿Sociedad de mercado o sociedad decente?”, Universidade de Vigo, acceso aberto online: https://secretaria.uvigo.gal/uv/web/publicaciones/public/show/403
2 Beck, U. (2002): La sociedad del riesgo global, Siglo XXI, páxina 87
3 https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52020DC0064&from=ES
4 https://www.lamoncloa.gob.es/presidente/ actividades/Paginas/2020/230720- sanchezdigital.aspx
5 https://hdr.undp.org/system/files/documents/ global-report-document/hdr2025reporten.pdf
6 Bostrom, N. (2016): Superinteligencia, TEELL
7 https://www.xunta.gal/dog/Publicados/2025/20250404/AnuncioC3B0-030425-0001_es.html





