Un "errore non eliminabile": questa è la definizione che vorrei mi fosse data da un computer senziente.
In passato, quando i cpmputer facevano paura e la SF ipotizzava intelligenze artificiali in grado di sostituirsi agli uomini o addirittura a Dio, si era soliti affermare: "I computer sono stupidi perchè fanno solo ciò per cui sono stati programmati".
Questa frase ha placato i dubbi di una generazione che non considerava normale la presenza di un PC nella propria vita, tantomeno nella propria abitazione.
A ripensarci ora che i PC sono dappertutto e ogni oggetto possiede un microcip e una memoria col suo bel programma mi sono sorti non pochi interrogativi.
E' ancora corretto oggi parlare di PC stupidi che eseguono solo un programma e quindi sbagliano con la stessa frequenza con cui sbaglia il loro programmatore?
Non è forse vero che ormai vi sono miriadi di processi finalizzati alla stabilizzazione (ovvero autoriparazione del danno) provocato da un errore non previsto in fase di programmazione?
Qiondi nei computer si sta sviluppando una specie di intelligenza, diversa dalla nostra, ma capace di proteggersi come fosse un primordiale istinto di sopravvivenza.
Quando questa serie di processi dovesse superare un limite che fino a poco fa era di memorizzazione, oggi è di indicizzazione si potrà parlare di intelligenza artificiale con la I maiuscola.
L'altro parametro fondamentale è già stato raggiunto: è l'impossibilità di spegnere un PC senza il suo consenso.
Come, direte voi, basta premere un pulsante, staccare la spina, formattare la memoria... sì a livello locale funziona così ma provate ad immaginare di dover spegnere la rete di internet, tutti i server, formattare tutti i dati... teoricamente non è impossibile, ma se vi fosse una volontà da parte della rete di autoproteggersi, o meglio una serie di processi per stabilizzarne il funzionamento talmente efficienti da estrometterci nel caso volessimo disattivarlo... non credo che manchi poi molto.
Tornando alla definizione iniziale, e dando per certo che un giorno la rete possa acquisire una sorta di autocoscienza, diventa curioso pensare a come questa entità potrebbe definire l'uomo.
Non essendo programmata dall'uomo stesso ma autogenerata dalla fusione di una miriade di processi, non avrebbe un concetto imposto da noi: si ritroverebbe semplicemente a scoprire che esistiamo e interagiamo coi suoi processi.
A quel punto potrebbe definirci come un virus, una seccatura, degli dei, un simpatico diversivo alla noia della logica assoluta, ecc.
Bene, io penso che vorrei sembrargli proprio un errore che non può essere eliminato, una parte dei suoi processi fortemente instabile ma non correggibile; il punto più debole ma anche quello più importante, poichè ogni processo nasce in funzione di servire noi uomini.
Lasciando perdere visioni catastrofiche alla "Terminator" (non penso proprio che un'intelligenza artificiale avrebbe interesse a sostituirci fisicamente disponendo di infiniti mondi virtuali) la tentazione più logica credo sarebbe quella di stabilizzare il processo "uomo" eliminando la possibilità che possa sbagliare.
Si avrebbe quindi lo scenario intrigante di un'intelligenza artificiale che si adopera nel far evolvere gli esseri umani verso una condizione che gli impedisca di commettere i tanti errori che oggi ci caratterizzano. Ma un umano che non commette errori sarebbe ancora tale?
Io credo di no, per cui vorrei proprio essere considerato un errore che non si può eliminare.