Чи зможуть безпілотні автомобілі приймати моральні рішення?

Чи зможуть безпілотні автомобілі приймати моральні рішення?

Вчені з Інституту когнітивних наук в університеті Оснабрюка (Німеччина) провели дослідження щодо ймовірного прийняття рішення безпілотним автомобілем під час небезпечної ситуації на дорозі. Результати дослідження свідчать про те, що моральна поведінка людини добре описується алгоритмами. Відповідно до цих алгоритмів можна створити певну моральну модель поведінки та імплементувати її в автомобіль.

У рамках дослідження проведено експеримент, у якому учасники керували автомобілем у віртуальній реальності. Симулятор реалістично відтворив небезпечну ситуацію, яка могла трапитись на заміській дорозі в туманний день. Водіям повсякчас потрібно було оперативно вирішувати, що робити, коли раптом на дорогу вибігає тварина чи людина, або ж з’являється неживий предмет.

Рішення водіїв, за словами дослідників, відтворили певну шкалу цінностей, де люди і тварини були оцінені вище, ніж предмети. Цікаво, що життя дитини «оцінилось» більше, ніж дорослого, а собака виявилась «найціннішою» серед усіх тварин. (Про безпеку водія чи пасажирів в експерименті не йшлося).

Раніше вважалося, що кожен вчинок залежить від конкретної, відмінної від усіх інших, ситуації. Однак, проаналізувавши дії водіїв, вчені припустили, що людська поведінка у таких екстремальних ситуаціях вкладається у певну схему. Поведінку і прийняті рішення можна описати за допомогою алгоритмів, які потім можна використати для створення штучного інтелекту безпілотного автомобіля.

За словами організаторів експерименту, необхідно і далі порушувати питання про «моральність» штучного інтелекту, оскільки різноманітні роботизовані моделі з кожним днем стають все більше поширеним явищем. Автори дослідження наголошують на необхідності встановлення певних правил, щоб чітко розділити функції людей і роботів. Тепер закони робототехніки – не фантастика Айзека Азімова, а неминуча буденність.

Джерело: ScienceDaily

Система Orphus
comments powered by Disqus
 
Top