Новини

21:40
Уникальные кадры: тигры раскурочили шпионивший за ними квадрокоптер
21:26
"Укрпочта" повысит тарифы на 50%
20:49
Я уничтожу твоих детей: Нардеп БПП с женой избили мужчину в казино
20:44
The Daily Signal: Украина медленно вымирает
20:25
У Польщі озвучили нову заяву про Бандеру та Україну
20:15
На взятке попались офицеры Генштаба ВСУ и Госпогранслужбы
20:05
У Меланьи Трамп появился реальный двойник
18:39
В Киеве ограблен банк, полиция ищет злоумышленника
18:22
Гройсман проинспектировал работу лучшего украинского танка
16:21
ГФС хочет отменить обязательную проверку ФЛП при закрытии
16:09
Коломойскому грозит до пяти лет тюрьмы – Гонтарева
16:07
Рада приняла закон, по которому следователи и прокуроры у любого человека смогут конфисковать все - нардеп
16:04
WebProduction предложил компаниям услугу CRM-аудита
15:43
Когда в Украине заработает финансовая полиция
15:09
Есть ли российский след в укрэнергетике и кому идут наши деньги?
15:03
В Раде не исключили, что Гончаренко похитили для пыток
14:34
Украинский беспилотный БТР вызвал фурор на выставке в Дубае
13:25
Провайдеры рассказали, как будут лишать украинцев интернета и связи
12:45
Бизнесмен: Как у самой бедной страны Европы может быть самое дорогое электричество в Европе?
12:33
Всплеск радиации в 7 странах Европы может быть связан с «секретными испытаниями» России
12:28
СМИ: Война между Китаем и США может начаться в любой момент
12:15
"Налоговая полиция - STOP": Под Радой митингуют против непосильных налогов
10:45
За жалобы на условия жизни в казармах бойцам начали угрожать и выселили на улицу
10:15
Долг киевлян за тепло превысил 4,7 миллиарда – Киевэнерго
09:59
Савченко: Дети должны уметь стрелять c шести лет
09:52
Как российская мафия грабит украинцев через тарифы облэнерго
09:44
Донбасс – это наше: Наемник из Чечни назвал Донецк своей землей
09:27
Турчинов: Для противостояния России одной армии недостаточно
09:20
В Киеве подорожал хлеб на 10-15%
09:02
Украинцам пообещали не отключать электричество до 20 марта
08:58
В Крыму на "дороге смерти" взорвался бензовоз: водитель сгорел заживо
08:57
Украинцев через суд заставляют возвращать субсидии обратно
08:46
Поклонники раскритиковали Настю Каменских за неумение жарить блины
08:31
Невероятно: Boeing в сопровождении истребителей и НЛО
08:25
Свинина станет еще дороже: Украине прочат взлет цен и массовое банкротство свиноферм
08:21
Веру Брежневу подвела юбка с откровенным разрезом
08:07
Венгрия выделит Украине кредит в 50 миллионов евро на дороги
07:53
Беременная Анна Седокова столкнулась с предательством близкого человека
Більше новин

"Надо уже сейчас думать, как обезопасить искусственный интеллект" - Хокинг

0

Стивен Хокинг продолжает «крестовый поход» против искусственного интеллекта (ИИ).

"Надо уже сейчас думать, как обезопасить искусственный интеллект" - Хокинг
Во время долгожданной акции «Спросите меня обо всём на Reddit» он написал, что работа над разработкой протокола безопасности ИИ должна вестись уже сейчас, а не в отдалённом будущем.

«Нашей целью должно стать не создание отвлечённого искусственного интеллекта, а создание полезного интеллекта, ― написал знаменитый физик, ― на то, чтобы выяснить, как это сделать, уйдут десятилетия, так давайте начнём исследовать этот вопрос сейчас, а не в ночь до запуска первого продвинутого ИИ».

Хокинг использует известность для поддержки движения безопасности ИИ с 2014 г., когда он совместно с другими исследователями написал редакционную статью, где предупреждает об экзистенциальной угрозе, которые развитые машины представляют для человечества.

Другие известные личности в области технологий — Илон Маск и Стив Возняк, присоединились к Хокингу. Ранее в этом все трое подписали открытое письмо с призывом запретить автономное оружие или боевых роботов.

Ожидания, что человечество скоро создаст искусственный интеллект, существуют ещё с 50-х годов и не оправдали пока себя. Однако большинство учёных в области ИИ считают, что машины, равные по интеллекту человеку, появятся уже в этом веке.

Хокинг предупреждает, что изображение искусственного интеллекта в фантастических фильмах искажает представление о реальной опасности машин. В фильмах вроде «Терминатора» изображают демонических роботов-убийц, стремящихся уничтожить человечество по мотивам, которые у настоящего искусственного интеллекта не возникли. Они также упрощают снижение потенциального риска от ИИ (например, не строить киборгов).



«Настоящая угроза от искусственного интеллекта не в том, что он злой, а в том, что он очень способный. Искусственный сверхинтеллект очень хорошо умеет выполнять свои задачи.

Если его задачи не совпадут с нашими, у нас возникнут проблемы, ― написал Хокинг, ― вы вряд ли ненавидите муравьёв, но если вы отвечаете за проект по выработке экологичной энергии, а район, где находится муравейник, нужно затопить, муравьям не повезло. Давайте, не допустим, чтобы человечество оказалось в положении этих муравьёв».

Ник Бостром, философ в сфере ИИ, фантазирует на тему сценариев о конце света, когда программа начинает работать в неверном направлении. Например, искусственному интеллекту дают задание разработать план по защите окружающей среды, а он, чтобы решить проблему экологии, решает уничтожить человечество.

Илон Маск уже выделил $10 миллионов на исследования в области безопасности ИИ, чтобы предотвратить появления разрушительного искусственного интеллекта вроде Skynet в «Терминаторе». Но Хокинг хочет, чтобы люди изменили в целом своё восприятие ИИ.

«Пожалуйста, скажите своим студентам, чтобы они думали не только над тем, как создать ИИ, но и как гарантировать его использование в полезных целях, ― ответил Хокинг преподавателю, который ведёт лекции по искусственному интеллекту, ― появление ИИ, который превосходит человека, станет либо самым лучшим, либо самым худшим событием в истории человечества. Поэтому важно, чтобы всё прошло, как надо».


Загрузка...