Quando l’Intelligenza artificiale sbaglia e la responsabilità è umana (sembra non dei piloti).

by

Il programma del computer di bordo ha prevalso sui piloti, facendo cadere l’aereo. E’ questa la prima, provvisoria causa che ha provocato il disastro aereo etiope. Così, oltre al dolore dei morti, tra cui molti volontari italiani, c’è anche l’inquietante scoperta dell’uso dell’ “ultima istanza informatica”, ovvero l’irrevocabilità della “certezza” del programma, anche in presenza di un errore.

 

Il dato è agghiacciante se si prova solo a traslare questo incidente aereo, già tragico, sui sistemi di lancio di testate nucleari. Algoritmi implacabili predisposti alla risposta in automatico in caso di arrivo di ordigni nucleari nemici. Una volta l’abbiamo scampata per un pelo. Il 26 Settembre 1983  i sistemi russi scambiarono dei raggi solari anomali per tracce di testate americane in viaggio verso Mosca. Il tenente colonnello Stanislav Petrov, di guardia quella notte, avrebbe dovuto attivare i lanci letali di risposta contro gli Usa, ma la sua esperienza non lo convinse che l’allert fosse reale e non spinse il bottone rosso. L’ultima istanza fu sua ed evitò la terza guerra mondiale.

L’umanità fu salvata da quel dubbio.

Una grandiosa facoltà umana di falsificazione critica collaterale, che non sarà mai digitale.

 

Massimo Marnetto

Annunci

Tag: ,

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...


%d blogger hanno fatto clic su Mi Piace per questo: