Europa: un reglament fallit sobre IA

LA PELL DE BRAU

Europa: un reglament fallit sobre IA

Europa ha renunciat a dissenyar una intel·ligència artificial (IA) humanista. Aquesta és la principal conclusió que s’extreu de la redacció del Reglament sobre IA que, pendent d’aprovació definitiva al Parlament Euro­peu, formalitzarà l’acord assolit entre els representants d’aquest, de la Comissió i del Consell. Un desenllaç que no nega l’ avenç que suposa respecte d’un àmbit sobre el qual no hi havia legislació. S’introdueix un precedent regulatori únic a nivell global. Fins i tot, obre la possibilitat que es repliqui fora, com va passar amb els estàndards europeus sobre privacitat i protecció de dades. Sens dubte, és una notícia excel·lent. Una cosa que mereix elo­giar-la en vista del context geopolític de rivalitat visceral que enfronta els Estats Units i la Xina per l’hegemonia mundial. Una circumstància que eleva cada dia la temperatura geopolítica del planeta i que té en la IA una eina fonamental per donar a l’un o l’altra el lideratge buscat.

Aplaudir aquesta novetat regulatòria, però, no exclou la decepció per haver perdut una oportunitat per contribuir a una IA objectivament ètica. Això és, una IA que introdueixi en el seu ADN sintètic un propòsit ètic de servei que subordini els seus desenvolupaments a un sentit que contribueixi al benestar moral de la humanitat, sense exclusions. Una IA que no sigui el que és avui en mans exclusives de tecnòlegs: una voluntat de poder amb capacitats d’acció, encara que no sapiguem per a què en termes ètics. El reglament evidència que Europa hi ha renunciat. Potser mai no havia estat del tot en el seu ànim, però s’esperava que hi fos perquè més que mai necessitem una IA propositiva èticament.

perico lassalle

 

PERICO PASTOR

Una IA que col·labori amb l’ésser humà perquè sigui millor, no més capaç de fer més coses i de manera més eficaç també. Per a què més? I, per a què més eficaç? Al no fer-ho, hem renunciat a una IA humanocèntrica de debò. Una IA que, a més, de no ser la mesura de totes les coses, no alteri les bases culturals que pràcticament han sustentat el que Hannah Arendt definia com la condició humana: les experiències d’una vida assentada sobre els límits biogràfics, cognitius i emocionals que estan en la nostra naturalesa d’espècie humana i que tots compartim.

Aquí hi ha la decepció per una regulació que abraça el disseny nihilista que acompanya la base investigadora de les propostes de xinesos i nord-americans. És veritat que no replica el biaix cultural que les acompanya totes dues i que pretén augmentar les capacitats de la IA de manera il·limitada. Ni com la Xina, que busca la maximització confuciana de controlar l’ésser humà com si només fos un súbdit d’un Estat. Ni com els EUA, que maximitzen en clau neoliberal la manipulació del desig de l’ésser humà al concebre’l com un consumidor egoista de continguts.

S’ha perdut una oportunitat per contribuir a una IA objectivament ètica

Tot i això, assumeix definitivament la creença equivocada de pensar que es pot dotar la IA d’un disseny de seguretat que eviti i controli riscos, com si fos una tecnologia facilitadora més, quan no ho és. No m’estendré en això perquè és el nucli del meu pròxim assaig: Civilización artificial. Sabiduría o sustitución como dilema de la IA, que sortirà d’aquí unes setmanes amb l’editorial Arpa. Evito l’espòiler, encara que parlaré en profunditat sobre aquesta qüestió filosòfica en els meus pròxims lliuraments. Una qüestió capital perquè, ara, es patentitza en els riscos incontrolables de la IA. Una cosa que va engegar amb la pulsió utòpica i determinista que va portar Turing a imitar el cervell humà per replicar-lo sense imperfeccions.

La IA que pensa i recrea Europa a través del reglament queda molt lluny del que s’esperava. Bàsicament perquè el model regulat per aquest continua fidel a l’ afany perfeccionista original que està en l’origen de la IA. Una proposta que, però que, amb el temps, i a mesura que ha escalat el coneixement que es té del cervell humà que imita, s’ha converit en la font dels problemes als quals ara, el 2024, ens enfrontem. Entre altres, perquè propicia la substitució massiva del treball intel·lectual dels professionals.

Lee también

2024, any de la intel·ligència artificial

José María Lassalle
opi 4 del dia 30

Sé que aquesta reflexió crítica serà polèmica perquè és inèdita. Tanmateix, crec que és la batalla intel·lectual més important i interessant que s’ha de donar de cara al futur. No per prohibir la IA ni obstaculitzar-la, sinó per orientar-la millor. Cap a objectius que ajudin, també, a millorar a la humanitat sense renunciar que continuï assentant-se sobre les bases empíriques que donen suport moral a l’ésser humà.

Per això, el reglament és fallit. Perquè podria haver fixat l’estàndard regulatori que necessitem per a una IA humanista. Una referència normativa que permeti que aquesta cosa que és la IA i que volem convertir en algú no només arribi a tenir consciència de si mateixa sinó una consciència que la doti de plena autonomia ètica. Per això és fallit. Perquè al segle que vivim i sota les condicions geopolítiques que travessàvem, només Europa ho pot fer i no ho ha fet. D’aquí la decepció i la inquietud. No s’ha desdit el reglament de la seva aspiració regulatòria original, però ha cedit al realisme geopolític. Ha admès que puguin desenvolupar-se models fundacionals de sistemes generatius mirant cap a una altra banda. Una aposta que imita, com els xinesos i nord-americans, la capacitat conscient de l’ésser humà i tota la seva potència creativa.

Així, hem deixat òrfena la humanitat d’un model universalitzable mitjançant un propòsit objectivament ètic en el qual tots ens reconeguem. Ara, la IA podrà maximitzar la seva voluntat de poder i portar-la fins al final. Una voluntat deutora de Hobbes, quan va legitimar la modernitat científica i va proclamar que el coneixement era poder i no la base de la prudència aristotèlica. Llavors, el nord europeu es va imposar al sud. Ara potser en veurem les conseqüències definitives.

Lee también

Altman, OpenAI i voluntat de poder

José María Lassalle
opi 4 del 25 noviembre
Etiquetas
Mostrar comentarios
Cargando siguiente contenido...