Sobre o actual referente de mercado en intelixencia artificial (IA) coñecido como ChatGPT (Microsoft) anoto aquí o que relata unha experta nestas tecnoloxías: “Os grandes modelos como ChatGPT ou Claude están topicamente entrenados a través dun proceso de aprendizaxe supervisado a gran escala, e despois son afinados con aprendizaxe de reforzo asistido para “aliñear” os resultados coa cultura e os valores desexados”.
Como quera que a irrupción da opción gratuíta chinesa DeepSeek vén sendo cuestionada por obvios sesgos e valores (cóntase con retranca se fala ou non de Xi Jinping), penso que é bo ter presente que estes aliñamentos cos valores (sesgos ideolóxicos) forman parte da aprendizaxe supervisado e aliñado destas IA. Así, un pode preguntarlles se o bitcoin se pode considerar un esquema Ponzi, para comprobar que só repreguntando con certa finura e teimosía acabará a IA recoñecendo que razoa coa lóxica dos axentes privados e non coa dunha institución pública ou colectiva.
Atopámonos ante unha letal situación de incerteza e, como tal, ante unha urxente necesidade de aplicar o principio de precaución a estes asuntos, polo menos mentres persista o noso actual descoñecemento da relación cerebro-mente.
Tamén é oportuno lembrar que esa aprendizaxe pode estar a facerse sen respectar os dereitos de propiedade intelectual dos materiais de partida, mesmo facendo que unha IA se exercite con outra IA previa. Un tipo de aprendizaxe depredatorio que só uns poucos axentes con fortes equipos de avogados poden tentar dificultar. Tamén subcontratando traballadores para labores de etiquetado consideradas degradantes.
Sobra dicir que aqueles sesgos e estes comportamentos van medrar sen taxa cando ChatGPT pase de estar controlada por OpenAI (“fundada no 2015 como unha organización sen fins de lucro, coa misión de asegurar que a intelixencia artificial xeral beneficie a toda a humanidade”) a estalo por Microsoft e outras corporacións privadas.
Menos percorrido ten a acusación sobre unha ou outra IA (de pago como Chat ou de acceso aberto como Deep) de apropiarse dos datos e das experiencias dos seus usuarios. Pois sempre sucede tal cousa, e é algo que en todo caso é máis grave para o caso dos usuarios que pagan polo servizo.
Pero mesmo así non son poucos os seus perigos (ciberseguridade, por caso facilitar coñecementos potencialmente letais, no ensino, na sanidade, nas finanzas, no xornalismo, etc.), o que fai preciso aplicar políticas derivadas do coñecido como “principio de precaución”. Pois a lóxica do mercado adoita ser contraria á que debera rexer nunha sociedade decente. Tamén no despilfarro das tarxetas gráficas, dos microprocesadores e da enerxía necesaria.
***
Máis aló destas consideracións, e das graves derivadas en termos de emprego que poden supor en numerosas profesións (dende ilustradores a músicos pasando por taxistas ou avogados), convén reiterar que a consideración destas IA como emulacións do cerebro humano ou “super intelixencias” non aguanta unha análise rigorosa. Algo que tentei argumentar no epígrafe 5.2. do meu ensaio “¿Sociedad de mercado o sociedad decente?” e que resumo no que segue.
Sucede que aínda estamos moi lonxe de comprender a base biolóxica da conciencia, o misterio de como a actividade neuronal dá lugar á experiencia subxectiva. En definitiva, e en palabras do neurobiólogo Semir Zeki, experto en visión e cortiza cerebral: “o estudo científico do cerebro está aínda na súa infancia”. E segue sendo así a pesar dos avances actuais en nanotecnoloxía, neuroimaxe, psicoloxía cognitiva, biotecnoloxía e robótica cognitiva. Tamén comparte esta perspectiva Noam Chomsky, para quen o sistema mente-cerebro estaría fóra do alcance da comprensión humana, como sostiveron no seu tempo Descartes, Newton e Hume. Cando menos, é un obxectivo moi afastado, do que apenas podemos albiscar o seu horizonte.
E, sendo isto así, ao menos unha conclusión semella pertinente: replicar tecnoloxicamente unha IAS (intelixencia sobrehumana artificial) é hoxe un disparate, dado o pouco que aínda sabemos sobre o sistema mente-cerebro humano. Intentalo nunha situación de ignorancia é temerario, e moi probablemente terá resultados catastróficos.
Falamos das expectativas de que unha máquina poidese replicar as operacións do cerebro humano, o que xa se chamou intelixencia artificial (IA ou IA forte) en 1955. Non é estraño que un dos protagonistas do encontro que bautizou a IA en 1955, nunha publicación feita trinta anos despois, manteña -a respecto do tema que nos ocupa- que os misterios sobre a intelixencia humana eran demasiado relevantes e persistentes para avanzar rapidamente e de forma segura nunha IA.
Máis aló de se é posible ou non, Marvin Minsky tamén cría que as incertezas sobre a nosa seguridade en relación ás máquinas de intelixencia artificial xeradas en tal contexto aconsellaban que, “quizais deberíamos prohibir o uso da intelixencia artificial a gran escala durante varios miles ou millóns de anos, ata que entendamos o que significa e as súas consecuencias”. Ata que, por exemplo, esteamos en condicións de asegurar categoricamente que esta IA respectaría a primeira lei da robótica de Isaac Asimov (1942). Algo que é moi improbable, entre outras razóns, porque nunca podemos estar seguros de que teñan unha percepción perfecta do que é prexudicial para o ser humano.
Evidentemente, atopámonos ante unha letal situación de incerteza e, como tal, ante unha urxente necesidade de aplicar o principio de precaución a estes asuntos, polo menos mentres persista o noso actual descoñecemento da relación cerebro-mente. Algo para o que o recente Regulamento da UE sobre IA queda curto por mais que a Meta ou Apple, mesmo así, lles moleste.