Martedì 21 Maggio 2024
area riservata
ASAPS.it su
Notizie brevi 24/01/2017

"Decidi chi deve morire", così gli scienziati insegnano l'etica alle auto senza pilota

Al Mit di Boston gli scienziati hanno sviluppato una piattaforma per aggiungere “moralità” al funzionamento delle self-driving machine: l'auto senza pilota dovrà cercare di evitare l'ostacolo mettendo a rischio la vita di conducente e passeggeri o continuare la sua corsa investendo il pedone?

Mentre sempre più aziende sperimentare con le automobili senza pilota sorgono nuove domande su come i veicoli a guida automatica dovrebbero rispondere in determinate situazioni di pericolo, quando ovvero è davvere impossibile evitare un incidente o scongiurare vite umane. Un dibattito che si è sempre più sviluppato dopo il primo incidente mortale che ha coinvolto una Tesla nel maggio 2016 in Florida, negli Stati Uniti.

Se qualcuno corre in mezzo alla strada, dovrebbe sterzare e uccidere il conducente o andare avanti e uccidere il pedone? Questi sono alcuni dilemmi morali difficili che mettono in alla prova l'etica. L’università di Boston ha creato una piattaforma per lasciare che siano gli esseri umani ad insegnare ai computer che cosa le vetture dovrebbero fare in vari scenari.

Grazie alla "Moral Machine" sviluppata dai ricercatori del Mit gli utenti analizzano diversi scenari e propongono la scelta che ritengono più etica in caso di imprevisti su strada con le macchine self-driving: il tentativo è quello di programmare i software che le guidano secondo il senso comune.

Come si evince dal nome l’obiettivo finale dichiarato è quello di aggiungere “moralità” al funzionamento delle macchine: agli utenti vengono proposti diversi casi come ad esempio l’improvviso attraversamento della strada da parte di un pedone. Ora, l'auto senza pilota dovrà cercare di evitare l'ostacolo mettendo a rischio la vita di conducente e passeggeri o continuare la sua corsa investendo il pedone?

Le vittime tra le quali scegliere negli esempi proposti dalla Moral Machine sono di diverso tipo: animali, donne, uomini, pensone anziane, bambini, criminali. Qui di seguito ecco alcuni esempi.

>GUARDA L'INFOGRAFICA

da today.it


Come si evince dal nome l’obiettivo finale dichiarato è quello di aggiungere “moralità” al funzionamento delle macchine. Gli scienziati riusciranno a raggiungere un adeguato obiettivo? Con gli uomini non sempre riesce. (ASAPS)

Martedì, 24 Gennaio 2017
stampa
Condividi


Area Riservata


Attenzione!
Stai per cancellarti dalla newsletter. Vuoi proseguire?

Iscriviti alla Newsletter
SOCIAL NETWORK