Коментари

Клопката на изкуствения интелект

Конфликтни команди между компютъра и екипажа на Боинг 737 МАКС 8 са вероятната причина за самолетната катастрофа в Етиопия. Това е предположението на експерти – получило се е разминаване в показанията за скорост и височина, които автоматичната система на самолета е отчела и начина, по който пилотът ги е интерпретирал. Тоест автопилотът е попречил на пилота да си свърши работата, или обратното – тепърва ще се уточнява.

Трагедията насочва вниманието към един предстоящ сблъсък с непредвидим резултат: между човека и изкуствения интелект.

През последните години от живота си британският астрофизик Стивън Хокинг отправяше предупреждения в тази посока. В няколко интервюта той каза, че компютрите могат да се превърнат в заплаха, защото стават все по-умни и на хората ще им е трудно да ги догонят, да ги следват и контролират. В социален аспект това означава, че човекът няма да успее да конкурира  изкуствения интелект и ще си загуби работата Най-новите прогнози сочат, че до 2030 г. автоматизацията ще зачеркне 73 милиона работни места.

По-непредвидимото като следствие обаче е, ако не ги зачеркне. Тогава възниква казус, при който не е ясно кой кого ще ръководи: човекът ли ще командва автоматиката или тя него. Проблемът е, че човекът става все по-ленив и зависим от технологиите, и все повече го мързи да мисли. При това положение е логично да се запитаме: какво ще последва, ако свръхчовешкият изкуствен интелект в един момент „се разбунтува” и реши да се измъкне от опеката на хората, които му се виждат твърде глуповати?

Подобни въпроси задава в книгите си Айзък Азимов – големият майстор на научната фантастика от 70-те години на миналия век. Азимов формулира „Три закона на роботиката”, които трябва да гарантират безопасното съжителството с “мислещите” машини: 1.Роботът няма право да нарани човешко същество или с бездействието си да позволи нараняването му. 2.Роботът трябва да изпълнява заповедите, дадени му от човешко същество (освен ако това не противоречи на Първи закон). 3.Роботът трябва да защитава собственото си съществуване (освен ако това не противоречи на Първи и Втори закон).

Според този етичен кодекс софтуерът на Боинг 737 МАКС 8 е нарушил всички морални норми на взаимоотношенията с хората и следвайки указанията на Айзимов, трябва да си понесе наказанието. Така и стана всъщност: повечето държави извадиха от употреба самолетите от въпросния модел на Боинг.

Да се надяваме, че това няма да бъде използвано само за търговска война и ще реши въпроса с рисковите полети в дългосрочен план.

В целия свят разходите за изкуствен интелект нарастват, според някои статистики през тази година държавите ще инвестират в AI (Artificial Intelligence) общо около 35.8 милиарда долара. За следващия бюджет на ЕС е предвидено да има нова програма – „Цифрова Европа“ с бюджет от 9 млрд. евро за изкуствен интелект, киберсигурност, суперкомпютри, цифрови умения, дигитални иновационни хъбове, високи технологии в здравеопазването, виртуални здравни и социални асистенти, и пр. Би трябвало да е предвиден и бюджет за изследване на ефекта от навлизането на изкуствения интелект в различните сфери от живота ни. Защото може да се окаже, че не само обикновените хора, но и професионалистите не са готови да съжителстват и сътрудничат с него. Все повече хирурзи например, предпочитат традиционния начин на опериране пред ендоскопския, тъй като щадящо инвазивните, високотехнологични операции дават по-лоши резултати и повече грешки. За тези неща още не е прието да се говори открито. Както и не се говореше открито за проблемния софтуер на Боинг 737 МАКС.

Клопката на изкуствения интелект

Условия за ползване

Текстовете от Редута.бг не могат да бъдат препечатвани без изричното съгласие на редакцията.

Контакти

За връзка с Фондация "Редута": dr.tonyfilipov (at) abv.bg, тел: 0888 415 448
Редута.БГ се обслужва от счетоводна къща "Лавейа", бул. "Княз Дондуков" № 49, Тел: +359 2 988 84 04; Мобилен тел.: +359 888 60 72 70, Ел. поща: sk.laveia@gmail.com.
Работи с Хостинг в Rax Cloud.
To Top