Новини

21:27
На вечеринке в честь пятилетия дочери Киркоров осыпал гостей золотом
20:01
Журналисты показали, как дончанин вымаливает прощение у российского "освободителя"
19:19
В Одессе злоумышленники жгут элитные автомобили
18:59
Референдум в Италии и судьба евро
18:40
Ужасы худшей трассы Украины "Кривой Рог-Днепр"
18:30
В Дании задумались о проведении своего Brexit
18:28
Решение о безвизе может быть принято еще до конца 2016
17:20
Хокинг: Наступило самое опасное время для нашей планеты
16:57
Военный корабль РФ совершал опасные маневры возле украинского судна
16:35
Для українців скасували плату за туристичну візу в Таїланд
16:34
В России торгуют украинцами: раскрыта жуткая схема
16:00
Москаль: Вырубленные и проданные за копейки Карпаты станут нашим позором на века
15:55
Антарктические льды распадаются на части
15:52
Шустер пообещал продолжить работу канала, если ему дадут $10 млн
15:50
В Украине снова повысили тарифы на тепло
15:47
Масштабное ДТП в Киеве: фура снесла остановку с людьми и парикмахерскую
12:07
Военные учения возле Крыма оказались под угрозой
12:00
На Луганщине эскалация: боевики пошли на прорыв, у ВСУ потери
11:24
После ухода Саакашвили в Одессу вернули коррупционные схемы
11:21
В Египте лев растерзал дрессировщика во время шоу: пугающие кадры
10:39
Порошенко подписал указ о мерах по укреплению нацединства
10:36
Аэропорт «Борисполь» возглавит сокурсник Петра Порошенко
10:33
Все зависит от России: Кучма о ситуации в Донбассе
09:59
Гройсман: Я пишаюсь, що ми досягли такого високого рівня життя громадян
09:11
Nokia официально анонсировала выход новых смартфонов в 2017 году
09:08
Вывеску сменили, решалы остались. Как работают обновленные МРЭО
08:50
Лещенко выдвинул громкое обвинение в адрес Порошенко
08:33
Финалист Голос.Діти 3 совершил романтический поступок ради возлюбленной
08:17
Первый китайский космонавт рассказал о странных звуках в космосе
08:14
Расстрелы на Майдане организовали Пашинский и Аваков - активист Правого сектора
07:58
Потап и Ирина Горовая признались, что оформили развод
07:46
Настя Каменских тяжело заболела
07:45
"ВКонтакте" выпустила мессенджер для компьютеров
07:30
Большинство украинцев хотят решить судьбу Донбасcа на референдуме
07:24
Ford готовит новую Fiesta ST
07:15
Вера Брежнева спасает от ВИЧ старшую дочь
07:13
Роскошный дворец вице-премьера Украины поразил украинцев
07:13
К 2050 году климат на Земле изменится навсегда - ученые
Більше новин

"Надо уже сейчас думать, как обезопасить искусственный интеллект" - Хокинг

0

Стивен Хокинг продолжает «крестовый поход» против искусственного интеллекта (ИИ).

"Надо уже сейчас думать, как обезопасить искусственный интеллект" - Хокинг
Во время долгожданной акции «Спросите меня обо всём на Reddit» он написал, что работа над разработкой протокола безопасности ИИ должна вестись уже сейчас, а не в отдалённом будущем.

«Нашей целью должно стать не создание отвлечённого искусственного интеллекта, а создание полезного интеллекта, ― написал знаменитый физик, ― на то, чтобы выяснить, как это сделать, уйдут десятилетия, так давайте начнём исследовать этот вопрос сейчас, а не в ночь до запуска первого продвинутого ИИ».

Хокинг использует известность для поддержки движения безопасности ИИ с 2014 г., когда он совместно с другими исследователями написал редакционную статью, где предупреждает об экзистенциальной угрозе, которые развитые машины представляют для человечества.

Другие известные личности в области технологий — Илон Маск и Стив Возняк, присоединились к Хокингу. Ранее в этом все трое подписали открытое письмо с призывом запретить автономное оружие или боевых роботов.

Ожидания, что человечество скоро создаст искусственный интеллект, существуют ещё с 50-х годов и не оправдали пока себя. Однако большинство учёных в области ИИ считают, что машины, равные по интеллекту человеку, появятся уже в этом веке.

Хокинг предупреждает, что изображение искусственного интеллекта в фантастических фильмах искажает представление о реальной опасности машин. В фильмах вроде «Терминатора» изображают демонических роботов-убийц, стремящихся уничтожить человечество по мотивам, которые у настоящего искусственного интеллекта не возникли. Они также упрощают снижение потенциального риска от ИИ (например, не строить киборгов).



«Настоящая угроза от искусственного интеллекта не в том, что он злой, а в том, что он очень способный. Искусственный сверхинтеллект очень хорошо умеет выполнять свои задачи.

Если его задачи не совпадут с нашими, у нас возникнут проблемы, ― написал Хокинг, ― вы вряд ли ненавидите муравьёв, но если вы отвечаете за проект по выработке экологичной энергии, а район, где находится муравейник, нужно затопить, муравьям не повезло. Давайте, не допустим, чтобы человечество оказалось в положении этих муравьёв».

Ник Бостром, философ в сфере ИИ, фантазирует на тему сценариев о конце света, когда программа начинает работать в неверном направлении. Например, искусственному интеллекту дают задание разработать план по защите окружающей среды, а он, чтобы решить проблему экологии, решает уничтожить человечество.

Илон Маск уже выделил $10 миллионов на исследования в области безопасности ИИ, чтобы предотвратить появления разрушительного искусственного интеллекта вроде Skynet в «Терминаторе». Но Хокинг хочет, чтобы люди изменили в целом своё восприятие ИИ.

«Пожалуйста, скажите своим студентам, чтобы они думали не только над тем, как создать ИИ, но и как гарантировать его использование в полезных целях, ― ответил Хокинг преподавателю, который ведёт лекции по искусственному интеллекту, ― появление ИИ, который превосходит человека, станет либо самым лучшим, либо самым худшим событием в истории человечества. Поэтому важно, чтобы всё прошло, как надо».

Загрузка...