Tehnologia viitorului inseamna CONTROL- se vorbeste atat de mult de masinile fara sofer fara ca nimeni sa se intrebe cine controleaza softul.


Ziare.com:Tehnologia viitorului si morala omului: Ce va face masina care se conduce singura in caz de accident?

Masinile care se conduc singure nu pun numai probleme tehnologice si de reglementare, ci si intrebari etice, sustine un studiu american.

Daca un astfel de vehicul autonom s-ar afla in situatia in care ar trebui sa aleaga intre a lovi un om sau o masina, ce ar face?
Sau daca una dintre aceste variante ar fi inevitabila, ar lovi mai degraba un alt autoturism plin de pasageri sau s-ar izbi de un perete, riscand sa ii accidenteze pe ocupantii sai?

Aceste intrebari sunt abordate de studiul “Vehiculele autonome au nevoie de etica experimentala”, discutat in revista americana MIT Technology Review, arata Techinsider.io.

“Unele situatii vor obliga vehiculele autonome sa aleaga cel mai mic rau. Spre exemplu, sa dea peste un pieton pe drum sau peste un trecator pe trotuar. Sau sa aleaga daca sa loveasca un grup de pietoni sau sa sacrifice propriul pasager izbindu-se de un zid. Este o provocare formidabila sa definesti algoritmii care vor ghida vehiculele autonome in astfel de dileme morale.

In particular, acesti algoritmi morali vor trebui sa tina seama de trei obiective posibil incompatibile: comportamentul masinilor sa fie consecvent, sa nu provoace indignarea publica si nu descurajeze cumparatorii”, potrivit documentului citat.

Studiul nu incearca sa dicteze raspunsul “corect” sau “gresit” la vreuna dintre aceste intrebari, insa atrage atentia ca felul in care vor raspunde companiile producatoare va avea impact asupra adoptarii de automobile autonome.

Volvo se asteapa la ce e mai rau – cine va fi vinovat in cazul unui accident al masinii care se conduce singura

Cum s-au desfasurat cercetarile

Pentru a-si fundamenta opiniile, cercetatorii Jean-Francois Bonnefon, Azim Shariff si Iyad Rahwan de la Scoala de Economie din Toulouse au realizat trei cercetari care arata ca oamenii sunt “relativ de acord” cu ideea ca vehiculele autonome ar trebui sa fie “programate pentru a minimiza numarul mortilor in cazul unei vatamari inevitabile.”

Anterior, MIT Technology Review a relatat ca un profesor de la Universitatea Stanford a condus un atelier la inceputul acestui an, care a reunit mai multi filosofi si ingineri, pentru a discuta acest subiect.

Masina care se conduce singura a iesit in trafic: Cu ce se lauda Google (Video)

“Cea mai mare problema etica este cat de repede actionam”, a declarat pentru revista mentionata Bryant Walker-Smith, asistent universitar la Universitatea din Carolina de Sud, care studiaza consecintele juridice si sociale ale masinilor autonome.

Potrivit acestuia, in conditiile in care anual 1,2 milioane de persoane mor in accidente de masina, a avansa prea lent in privinta tehnologiei care face posibile masinile autonome este in sine o problema etica.