Новини

17:20
Кто угрожал Гонтаревой физической расправой? Названо имя известного бизнесмена
17:20
Уникальные тренировки украинских танков в горах – эффектное видео
17:09
Какие страны ЕС стали меньше отказывать в визах украинцам
15:13
Microsoft зaпaтeнтoвaлa пepвый в миpe гнущийcя нoутбук
14:27
Учeныe вce жe дoкaзaли, чтo яйцo пoявилocь пoзжe куpицы
14:00
Аргентинский футболист не смог забить гол в пустые ворота
13:56
Еврозона может подвергнуться кризису
13:34
Трамп вручил Меркель счет на 375 миллиардов долларов – СМИ
13:32
"95 квартал" рассмешил сеть челленджем от имени Ляшко
13:15
"Он легитимный, но предатель": в "ДНР" решили запретить въезд Януковичу
11:59
Гонтарева призналась, что опасается за свою жизнь
11:50
BMW готовит самый массовый запуск новых машин в истории марки
11:43
Топ-5 самых популярных индукционных плит по версии «Алло»
11:32
В Турции изобрели новый автомат МРТ-55
11:21
Такого нет ни в одной стране мира: 450 «народных» депутата охраняет армия 3000 телохранителей
11:17
Многокилометровые тоннели на Луне могут стать убежищем для землян
11:06
Парубий подписал скандальные изменения в е-декларирование
10:53
Ученые: Миллионы европейцев скоро лишатся жилья из-за глобального потепления
10:50
Рева убеждает: выгоднее платить налоги, а не штрафы
10:39
Савченко: "Ничего не имею против евреев. Я не люблю жидов"
10:32
Гройсман хочет повысить пенсии уже в этом году
10:01
Стало известно, зачем Кремль раздувает антиукраинскую истерию
09:52
Турция ввела пошлины на российские товары
09:40
Соболєв: З Росії досі постачається 85% палива для наших атомних електростанцій
09:39
Украина представила новый автобус "Тюльпан"
09:20
Акции против коррупции в Москве: задержанных больше тысячи
09:18
Аброськін висміяв чергове «звання» ватажка ДНР Захарченка
08:53
Эхо блокады. Какие города Украины первыми останутся без света
08:51
Крейсер "Украина" демилитаризуют и продадут за долги
08:47
Украинцы, вы молодцы, уже «дембеля» Майданов, но не стоит сильно стебаться с салаг-россиян – блогер Кукушкин
08:42
Ученые: Aпoкaлипcиc нaчнeтcя c вoccтaния мaшин
08:41
Саакашвили поможет украинским военным
08:34
Тину Кароль заметили в объятиях знаменитого мужчины
18:29
Россия восстает. В Петербурге протестуют 10 тысяч человек, в ход пошли дымовые шашки
16:56
Соцсети развеселила нелепость кремлевских троллей
16:28
Тина Кароль впервые прокомментировала свое заявление в адрес песни Лободы
16:09
Стогний: Вот вы ожидали такого поворота событий?! Глава МВД подал в отставку
14:04
Украина обогнала Китай по росту экономики
Більше новин

"Надо уже сейчас думать, как обезопасить искусственный интеллект" - Хокинг

0

Стивен Хокинг продолжает «крестовый поход» против искусственного интеллекта (ИИ).

"Надо уже сейчас думать, как обезопасить искусственный интеллект" - Хокинг
Во время долгожданной акции «Спросите меня обо всём на Reddit» он написал, что работа над разработкой протокола безопасности ИИ должна вестись уже сейчас, а не в отдалённом будущем.

«Нашей целью должно стать не создание отвлечённого искусственного интеллекта, а создание полезного интеллекта, ― написал знаменитый физик, ― на то, чтобы выяснить, как это сделать, уйдут десятилетия, так давайте начнём исследовать этот вопрос сейчас, а не в ночь до запуска первого продвинутого ИИ».

Хокинг использует известность для поддержки движения безопасности ИИ с 2014 г., когда он совместно с другими исследователями написал редакционную статью, где предупреждает об экзистенциальной угрозе, которые развитые машины представляют для человечества.

Другие известные личности в области технологий — Илон Маск и Стив Возняк, присоединились к Хокингу. Ранее в этом все трое подписали открытое письмо с призывом запретить автономное оружие или боевых роботов.

Ожидания, что человечество скоро создаст искусственный интеллект, существуют ещё с 50-х годов и не оправдали пока себя. Однако большинство учёных в области ИИ считают, что машины, равные по интеллекту человеку, появятся уже в этом веке.

Хокинг предупреждает, что изображение искусственного интеллекта в фантастических фильмах искажает представление о реальной опасности машин. В фильмах вроде «Терминатора» изображают демонических роботов-убийц, стремящихся уничтожить человечество по мотивам, которые у настоящего искусственного интеллекта не возникли. Они также упрощают снижение потенциального риска от ИИ (например, не строить киборгов).



«Настоящая угроза от искусственного интеллекта не в том, что он злой, а в том, что он очень способный. Искусственный сверхинтеллект очень хорошо умеет выполнять свои задачи.

Если его задачи не совпадут с нашими, у нас возникнут проблемы, ― написал Хокинг, ― вы вряд ли ненавидите муравьёв, но если вы отвечаете за проект по выработке экологичной энергии, а район, где находится муравейник, нужно затопить, муравьям не повезло. Давайте, не допустим, чтобы человечество оказалось в положении этих муравьёв».

Ник Бостром, философ в сфере ИИ, фантазирует на тему сценариев о конце света, когда программа начинает работать в неверном направлении. Например, искусственному интеллекту дают задание разработать план по защите окружающей среды, а он, чтобы решить проблему экологии, решает уничтожить человечество.

Илон Маск уже выделил $10 миллионов на исследования в области безопасности ИИ, чтобы предотвратить появления разрушительного искусственного интеллекта вроде Skynet в «Терминаторе». Но Хокинг хочет, чтобы люди изменили в целом своё восприятие ИИ.

«Пожалуйста, скажите своим студентам, чтобы они думали не только над тем, как создать ИИ, но и как гарантировать его использование в полезных целях, ― ответил Хокинг преподавателю, который ведёт лекции по искусственному интеллекту, ― появление ИИ, который превосходит человека, станет либо самым лучшим, либо самым худшим событием в истории человечества. Поэтому важно, чтобы всё прошло, как надо».


Загрузка...