Дали синтетичната интелигентност ще ни убие всички? – AI на Hawking и Musk’s AI

Всички сме гледали филмите, в които машините поемат. Terminator, The Matrix, 2001, има дори филмовата класика на филма от 1998 г. „Dream House“, където интелигентен дом върви измамник с (неволно) забавни последици.

Но разбира се всички знаем, че AI наистина е тук, за да помогне на човечеството. Тъй като нашите системи за машинно обучение за двадесет и първи век се разпадат по всички тези данни от нашите IoT сензори, те скоро ще ни предложат с отговорите и действията на следващата ни мисъл, преди дори да ни се случи.

Поемането на машини е цялата чиста фантазия. Нали?

Ами през последните няколко месеца двама отличени и много уважавани мъже говориха за потенциалния риск от AI към човешката раса.

Стивън Хокинг каза пред BBC:

„Развитието на пълната синтетична интелигентност би могло да изрича края на човешката раса… Хората, които са ограничени от бавна биологична еволюция, не можеха да се състезават и ще бъдат заменени.“

Докато Елон Мъск предупреди:

„Мисля, че трябва да бъдем много внимателни относно синтетичната интелигентност. Ако трябваше да се досетя кой е най -значимият ни екзистенциален риск, вероятно е това. Така че трябва да бъдем много внимателни. ”

Когато се огледате на мекия ужасяващи военни роботи, които започват да се появяват, внезапното разпространение на дронове и възпрепятстващата автомобилна революция на самостоятелно шофиране, това вероятно вече не е съществен участък от въображението да се постигне напред към свят, в който хората вече не са в Нагоре на хранителната верига.

И Хокинг, и Мъск са подписали това отворено писмо, за да подчертаят осведомеността за тяхното убеждение, че въздействието върху обществото от AI вероятно ще се увеличи и с него необходимостта да се гарантира, че служи на човек, а не машините.

И така, време ли е да въведем регулаторен надзор на AI системите, за да защитим всички нас? Може ли Skynet наистина да е нещо или просто сте доволни, че светлините ви се появяват автоматично, когато се приберете? Кажете ни какво мислите в коментарите по -долу.

Повече четене: Приоритети за изследване на стабилна и полезна синтетична интелигентност

Споделя това:
Facebook
Twitter
Reddit
LinkedIn
Pinterest
електронна поща
| Повече ▼

WhatsApp
Печат

Skype
Tumblr

Телеграма
Джоб

You may also like...

Leave a Reply

Your email address will not be published. Required fields are marked *