Come deve comportarsi un’auto autonoma in caso di incidente?

26 ottobre 2018

Una macchina morale progettata dal MIT di Boston è in grado di rispondere a una delle domande più affascinanti (e inquietanti) dei nostri tempi: come deve comportarsi un’auto autonoma in caso di incidente? A dispetto del nome, la Moral Machine non è un algoritmo in grado di decidere se sia giusto travolgere un anziano per risparmiare un gruppo di ragazzini; ma è una piattaforma che raccoglie le opinioni a riguardo di tutte le persone che desiderano rispondere ai dilemmi posti. 

Se l’auto non può frenare in tempo per evitare un ostacolo, è giusto che sterzi all’improvviso e investa due persone? E cambia qualcosa se sono bambini o adulti? E nel caso in cui si trattasse di cani e gatti? Non solo: dobbiamo prendere in considerazione solo il numero delle potenziali vittime o anche la loro età, la loro professione (potrebbero per esempio essere medici), la loro fedina penale e altro ancora? 

A queste variazioni del celebre dilemma del carrello ferroviario (in cui bisogna decidere se lasciare che un treno investa cinque persone legate ai binari o se invece deviarlo, sacrificando però volontariamente la persona che si trova legata al secondo binario) hanno risposto oltre 40 milioni di persone, che da tutto il mondo hanno partecipato ai quiz posti dalla macchina morale.  

L’aspetto più interessante, sottolineato proprio dai ricercatori del MIT (che hanno presentato le loro conclusioni su Nature ), è che le risposte variano moltissimo in base alla collocazione geografica dei partecipanti. Nel sud del mondo, per esempio, si tende a pensare che sia giusto risparmiare i giovani a spese degli anziani; una tendenza molto meno netta in Estremo Oriente e nei paesi musulmani. 

I criminali, invece, vengono presi un po’ ovunque in bassissima considerazione: sono sempre sacrificabili al posto di una donna e di un uomo dalla fedina penale pulita, e spesso anche al posto di un cane (ma non di un gatto). “Le uniche risposte simili in tutto il mondo riguardano una debole preferenza per i pedoni rispetto ai passeggeri dell’auto, e la volontà di risparmiare le persone rispettose della legge rispetto ai criminali”, hanno spiegato i ricercatori. 

Ovviamente, le risposte fornite alla Moral Machine non hanno valore statistico: i partecipanti non sono stati selezionati (ma sono volontari incuriositi dal quiz) e infatti la quota di giovani tra i 20 e i 30 anni con un’istruzione universitaria è nettamente la più numerosa. Ciononostante, i risultati della ricerca – affermano gli autori – potrebbero aiutare chi deve programmare gli algoritmi delle auto autonome: “Prima di consentire alle auto di prendere decisioni etiche, dobbiamo avere una conversazione globale, che ci permetta di spiegare le nostre preferenze a chi progetta questi algoritmi e alle istituzioni che dovranno regolamentarli”, scrivono infatti nel paper. 

Ma è proprio così? In verità, molti esperti di intelligenza artificiale considerano i dilemmi sulle auto autonome come un esercizio speculativo privo di qualunque ricaduta pratica. Le stesse conclusioni si leggono anche nel recente report con cui la Germania, prima al mondo, ha stilato le linee guida etiche per le auto autonome: “Non è possibile decidere ogni volta se salvare una vita piuttosto che un’altra, perché è una valutazione che dipende da situazioni molto specifiche, che sono influenzate anche da comportamenti imprevedibili e che, di conseguenza, non possono essere chiaramente standardizzate o programmate”. 

In poche parole, è impossibile che un algoritmo, prima di frenare, possa valutare attentamente tutte le miriadi di incognite che la Moral Machine ci chiede di prendere in considerazione (confrontare sesso, età, fedina penale e professioni di numerosi gruppi di persone; valutando contemporaneamente anche dove si trovano rispetto all’auto e chissà cos’altro). Proprio per questa ragione, la commissione incaricata dal ministero dei Trasporti tedesco di stilare queste linee guida ha posto dei principi molto più semplici: la priorità va sempre data alle vite umane, rispetto ad animali e oggetti, e l’uomo deve sempre avere il potere di sottrarre il comando alla macchina. In più, “in caso di incidenti inevitabili, classificare il passeggero in base a età, salute fisica o mentale, sesso e altro sarà vietato”.  



 
 


© 2018 | Yuss P.IVA 06727120963 Privacy Policy
 

 Possiamo aiutarti?