El credo de la superintel·ligència

Tribuna

El credo de la superintel·ligència

L’esdeveniment de la singularitat se suposa que és aquell punt en el temps en què una superintel·ligència artificial superarà la intel·ligència humana. Ray Kurzweil, el principal apòstol d’aquest credo, afirma que l’anomenada intel·ligència artificial general (pas previ per arribar a la superintel·ligència artificial) s’aconseguirà cap al 2030, i la superintel·ligència artificial i, per tant, la singularitat, s’ aconseguirà cap al 2045. Aquestes idees les van impulsar als seixanta les especulacions del matemàtic I. J. Good sobre el potencial d’una explosió d’intel·ligència, que va dir: “Definim una màquina superintel·ligent com una màquina que pugui superar amb escreix totes les activitats intel·lectuals de qualsevol home, per molt intel·ligent que sigui. Atès que el disseny de màquines és una activitat humana, una màquina superintel·ligent podria dissenyar màquines encara millors; llavors, indubtablement, hi hauria una explosió d’intel·ligència, i la intel·ligència de l’home quedaria molt àmpliament superada”.

El supòsit més fonamental darrere de la singularitat és la idea de progrés exponencial en diverses àrees de la ciència i la tecnologia, particularment en la informàtica i en la neurociència. En el cas de la informàtica podem considerar que, pel que fa al nombre de transistors que es poden integrar als xips, efectivament hi ha hagut un progrés exponencial que es correspon amb l’anomenada llei de Moore (tot i que actualment hi ha raons per creure que aquest creixement exponencial està arribant pràcticament al seu límit). Però desafortunadament per als creients de la singularitat els progressos en informàtica, i en particular en IA, no depenen únicament dels avenços en el hardware dels ordinadors. El software és, de fet, més fonamental que el hardware en el desenvolupament de la intel·ligència artificial i està molt clar que no hi ha, ni hi ha hagut, progressos exponencials en el desenvolupament de software.

S’ha de millorar el desenvolupament de software i millorar-nela fiabilitat

El 19 de juliol del 2024, mentre escrivia aquest article, hi va haver una caiguda a escala mundial del sistema operatiu Windows, a causa d’un error en l’actualització d’una plataforma antivirus anomenada CrowdStrike, que el protegeix davant ciberatacs. Per això fa servir IA, concretament un sistema d’aprenentatge automàtic que ha estat entrenat per detectar activitats anòmales dels usuaris identificant desviacions dels patrons de comportament estàndard que puguin indicar possibles ciberatacs.

Si un sol error en un software, basat, a més, en IA, pot afectar globalment i críticament hospitals, aerolínies, bancs, mitjans de comunicació i un llarg etcètera, no és ridícul pensar que som a prop d’aquesta intel·ligència general artificial que ens conduirà a continuació a la superintel·ligència artificial i a la singularitat?

No disposem de les tècniques i mètodes adequats per desenvolupar d’una manera fiable sistemes software d’alta complexitat. Les grans tecnològiques han de millorar dràsticament el desenvolupament de software, invertint a millorar la seva fiabilitat i robustesa en lloc de llançar al mercat sistemes complexos de software, com els de la IA generativa, sense verificar les conseqüències negatives, tant tècniques com ètiques, del seu mal funcionament. Llançar tecnologia innovadora sense verificacions robustes del seu funcionament pot ser un bon negoci per a alguns, però no serà mai progrés per a tothom.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...