Archive for 13 marzo 2019

Quando l’Intelligenza artificiale sbaglia e la responsabilità è umana (sembra non dei piloti).

13 marzo 2019

Il programma del computer di bordo ha prevalso sui piloti, facendo cadere l’aereo. E’ questa la prima, provvisoria causa che ha provocato il disastro aereo etiope. Così, oltre al dolore dei morti, tra cui molti volontari italiani, c’è anche l’inquietante scoperta dell’uso dell’ “ultima istanza informatica”, ovvero l’irrevocabilità della “certezza” del programma, anche in presenza di un errore.

 

Il dato è agghiacciante se si prova solo a traslare questo incidente aereo, già tragico, sui sistemi di lancio di testate nucleari. Algoritmi implacabili predisposti alla risposta in automatico in caso di arrivo di ordigni nucleari nemici. Una volta l’abbiamo scampata per un pelo. Il 26 Settembre 1983  i sistemi russi scambiarono dei raggi solari anomali per tracce di testate americane in viaggio verso Mosca. Il tenente colonnello Stanislav Petrov, di guardia quella notte, avrebbe dovuto attivare i lanci letali di risposta contro gli Usa, ma la sua esperienza non lo convinse che l’allert fosse reale e non spinse il bottone rosso. L’ultima istanza fu sua ed evitò la terza guerra mondiale.

L’umanità fu salvata da quel dubbio.

Una grandiosa facoltà umana di falsificazione critica collaterale, che non sarà mai digitale.

 

Massimo Marnetto

Annunci