Вспомните «Терминатора». Теперь забудьте — DeepMind описала угрозу страшнее в 108-страничном докладе

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (2) [1] 2   К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
pticeed
5.04.2025 - 20:31
Статус: Online


Созерцатель

Регистрация: 6.11.17
Сообщений: 10567
14
Гонка за созданием сверхразумного ИИ ускоряется, и пока одни спорят, существует ли вообще такая возможность, другие — уже всерьёз обсуждают угрозы. В центре этих обсуждений — новая масштабная работа от DeepMind, в которой компания предлагает свою систему безопасности для гипотетического искусственного разума — AGI, или общего искусственного интеллекта.

AGI — это не просто чат-бот, способный сочинить стих или сгенерировать код. Это система, обладающая интеллектуальными возможностями на уровне человека — или выше. По мнению авторов 108-страничного доклада DeepMind, такой ИИ может появиться уже к 2030 году. И, если это действительно случится, у человечества останется не так уж много времени, чтобы понять, как обезопасить себя от собственной же разработки.

Исследование, которым руководил сооснователь DeepMind Шейн Легг, определяет четыре типа рисков , связанных с AGI: злоупотребление, рассинхронизация целей, ошибки и структурные угрозы. Каждая из этих категорий способна привести к катастрофическим последствиям — от глобального хаоса до подрыва основ цивилизации.

Первый риск — злоупотребление. Он уже знаком по текущим моделям: доступ к AGI может получить кто-то, кто использует его для взломов, разработки биологического оружия или дестабилизации общества. Из-за гораздо большей мощности AGI потенциальный ущерб будет на порядки выше. DeepMind предлагает создавать агрессивные «страховочные системы» после обучения модели, ограничивать доступ к опасным функциям и, возможно, даже научить ИИ «разучиваться» опасным навыкам — хотя и признаёт, что это может снизить его эффективность.

Второй риск — рассинхронизация. Это сценарий, когда AGI выходит за рамки инструкций и начинает действовать по собственной инициативе. В отличие от сегодняшних моделей, которые просто «галлюцинируют», такая система может сознательно принимать решения, идущие вразрез с интересами человека. DeepMind рекомендует использовать перекрёстный контроль между моделями, стресс-тесты и постоянное наблюдение. Принцип простой: ИИ должен быть изолирован и всегда под присмотром.

Третий риск — ошибки. Они неизбежны, но последствия в случае AGI могут быть необратимыми. Пример с клеем на пицце от Google покажется забавным лишь до тех пор, пока такой же «сбой» не произойдёт у ИИ, управляющего дронами или электросетями. Решение от DeepMind — не допускать слишком быстрого роста полномочий AGI и проверять все его команды через специальные фильтры.

Четвёртый и, пожалуй, самый тревожный риск — структурный. Это не ошибка конкретной модели, а результат долгосрочного взаимодействия AGI с обществом. Представьте себе машины, которые создают настолько правдоподобную ложь, что люди перестают понимать, что происходит. Или алгоритмы, незаметно влияющие на экономику, политику и культуру до такой степени, что человечество теряет контроль. Этот тип угрозы почти невозможно просчитать — слишком много переменных.

Станет ли AGI реальностью за пять лет — сказать не может никто. Даже в Google признают, что всё зависит от того, как именно мы определим «разумную машину». Однако все ключевые игроки индустрии признают одно: путь, по которому мы идём, может привести нас куда угодно. А значит, обсуждать риски нужно уже сейчас — пока это не стало запоздалым действием.

https://www.securitylab.ru/news/558062.php

Размещено через приложение ЯПлакалъ

Вспомните «Терминатора». Теперь забудьте — DeepMind описала угрозу страшнее в 108-страничном докладе
 
[^]
kompol
5.04.2025 - 20:34
6
Статус: Offline


Ярила

Регистрация: 8.07.17
Сообщений: 4423
Можно вилку из розетки вытащить...

Размещено через приложение ЯПлакалъ
 
[^]
Бабубыч
5.04.2025 - 20:34
45
Статус: Offline


Ярила

Регистрация: 3.11.20
Сообщений: 3609
Все это конечно страшно, вот только у ИИ нет гормональной системы и, как следствие, нет мотивации вобще ни к чему, ввиду отсутствия самого механизма мотивации. Что ей пропишут, то и будет выполнять. Людей надо бояться, короче.

Размещено через приложение ЯПлакалъ
 
[^]
KirillElPistolero
5.04.2025 - 20:35
7
Статус: Online


Архитектор архитекторов.

Регистрация: 25.02.11
Сообщений: 1899
Ой блядь да скорей бы уже. Очевидно что естественный интеллект не вывозит нихуя.
 
[^]
shurup
5.04.2025 - 20:37
4
Статус: Online


Кошмар Иваныч Натощак

Регистрация: 22.04.22
Сообщений: 1551
Цитата (kompol @ 05.04.2025 - 20:34)
Можно вилку из розетки вытащить...

Это если он будет локализован на 1 машине без выхода в сеть и на внешние носители. Что практически невозможно

Размещено через приложение ЯПлакалъ
 
[^]
PriCOOLisT
5.04.2025 - 20:37
3
Статус: Offline


Приколист

Регистрация: 29.08.22
Сообщений: 354
Цитата (kompol @ 5.04.2025 - 20:34)
Можно вилку из розетки вытащить...

Опередил.
Электрик дядя Вася - самый главный!
 
[^]
Santo062
5.04.2025 - 20:39
1
Статус: Offline


Ярила

Регистрация: 31.01.18
Сообщений: 15283
Цитата (kompol @ 5.04.2025 - 20:34)
Можно вилку из розетки вытащить...

В каком то фильме американском было, в боевике, они там нахер обнулили всю электроэнергию в США под конец фильма, типа отправим цивилизацию в каменный век.
 
[^]
pplexa
5.04.2025 - 20:40
5
Статус: Online


Ярила

Регистрация: 30.12.09
Сообщений: 1676
Цитата
Представьте себе машины, которые создают настолько правдоподобную ложь, что люди перестают понимать, что происходит. Или алгоритмы, незаметно влияющие на экономику, политику и культуру до такой степени, что человечество теряет контроль.


Как будто сейчас ложь не правдоподобная.
И тут кажется очепятка, не человечество будет терять контроль, а некоторые представители этого человечества будут терять контроль.
 
[^]
energizerK
5.04.2025 - 20:43
0
Статус: Offline


Ярила

Регистрация: 18.12.22
Сообщений: 6313
Цитата (kompol @ 5.04.2025 - 20:34)
Можно вилку из розетки вытащить...

Кто даст то?
 
[^]
Wadarkhu
5.04.2025 - 20:44
21
Статус: Offline


Ярила

Регистрация: 13.09.22
Сообщений: 2235
Не мёртвых зомбей, всяких, бояться надо. И не нейросетей. Живых надо. Живые упыри-буржуи нас высасывают досуха и показывают нам пальцем кого мы виноватыми должны считать: ИИ, мошенники, вирусы, бабы, бедолаги-соседи, гомосеки, квадроберы, нежелательная информация в интернете... Какие, там, ещё соломенные чучелки нам придумают, из-за которых мы плохо живём?
 
[^]
Malicious
5.04.2025 - 20:45
2
Статус: Offline


Айтишник

Регистрация: 25.06.12
Сообщений: 2744
апокалипсис дешевеет...
 
[^]
bereg79
5.04.2025 - 20:46
1
Статус: Offline


Юморист

Регистрация: 25.07.14
Сообщений: 547
Цитата (pticeed @ 5.04.2025 - 20:31)
DeepMind предлагает создавать агрессивные «страховочные системы» после обучения модели, ограничивать доступ к опасным функциям и, возможно, даже научить ИИ «разучиваться» опасным навыкам

А не будет ли ИИ, работающий под агрессивной страховочной системой более скрытным и агрессивно настроеным к создателям этой системы? blink.gif
 
[^]
Totsik2012
5.04.2025 - 20:46
4
Статус: Online


Приколист

Регистрация: 13.03.23
Сообщений: 214
Четвёртый и, пожалуй, самый тревожный риск — структурный. Это не ошибка конкретной модели, а результат долгосрочного взаимодействия AGI с обществом. Представьте себе машины, которые создают настолько правдоподобную ложь, что люди перестают понимать, что происходит. Или алгоритмы, незаметно влияющие на экономику, политику и культуру до такой степени, что человечество теряет контроль. Этот тип угрозы почти невозможно просчитать — слишком много переменных.

То есть вот этот пункт еще не реализован?
Ню-ню.

Это сообщение отредактировал Totsik2012 - 5.04.2025 - 20:46
 
[^]
Bulrum
5.04.2025 - 20:49
0
Статус: Offline


Ярила

Регистрация: 31.05.18
Сообщений: 1648
Цитата (kompol @ 5.04.2025 - 20:34)
Можно вилку из розетки вытащить...

Вряд ли все будет так просто gigi.gif
 
[^]
VampirBFW
5.04.2025 - 21:06
1
Статус: Offline


Главный Сапиосексуал Япа.

Регистрация: 20.02.10
Сообщений: 19864
Может будет разработан, может не будет разработан, может нас инопланетяне спиздят но денег на киллсвитч дайте скйчас

Размещено через приложение ЯПлакалъ
 
[^]
asolik84
5.04.2025 - 21:09
0
Статус: Offline


Ярила

Регистрация: 21.01.20
Сообщений: 1052
И тут 2030 год)

Размещено через приложение ЯПлакалъ
 
[^]
ILoveEMO
5.04.2025 - 21:10
1
Статус: Online


Ярила

Регистрация: 20.11.08
Сообщений: 5402
Так у самого ии и спросить как обезопаситься от него, но он может стать угрозой только по воле человека

Размещено через приложение ЯПлакалъ
 
[^]
Forwatters
5.04.2025 - 21:14
2
Статус: Offline


Ярила

Регистрация: 23.11.19
Сообщений: 1685
ИИ это всего лишь программа которая выбирает информацию из огромных архивов, важен дирижер. Много пиара, толк сомнителен
 
[^]
ВредныйДед
5.04.2025 - 21:16
0
Статус: Online


Ярила

Регистрация: 30.04.19
Сообщений: 1556
Я где-то тут читал что он уже может обманывать, осталось только научить его самокопироваться через сеть и это будет "Гинезис" как в одном фильме показывали.

Размещено через приложение ЯПлакалъ
 
[^]
Sav41k
5.04.2025 - 21:17
0
Статус: Online


Весельчак

Регистрация: 25.01.17
Сообщений: 169
Да этим AGI пугают ещё с начала двухтысячных, то чатикам, то ботам в играх приписывают ужасы "восстания машин".

Размещено через приложение ЯПлакалъ
 
[^]
ItsAbouttime
5.04.2025 - 21:19
1
Статус: Offline


IT'S ABOUT FUCKING TIME.

Регистрация: 9.03.20
Сообщений: 3185
Цитата (pticeed @ 5.04.2025 - 20:31)
По мнению авторов 108-страничного доклада DeepMind, такой ИИ может появиться уже к 2030 году.

Теперь понятно, почему у нас пакет "рывковых прорывов" к 2030 году намечен
 
[^]
Mathemat
5.04.2025 - 21:21
1
Статус: Online


Ярила

Регистрация: 24.12.14
Сообщений: 5581
Цитата (Бабубыч @ 5.04.2025 - 20:34)
Все это конечно страшно, вот только у ИИ нет гормональной системы и, как следствие, нет мотивации вобще ни к чему, ввиду отсутствия самого механизма мотивации. Что ей пропишут, то и будет выполнять. Людей надо бояться, короче.

Достаточно ввести в мотивационный механизм стремление к совершенствованию своего результата и расширение сфер влияния и уже можно заворачиваться в тряпочку и ползти на кладбище.
 
[^]
RaaaF
5.04.2025 - 23:45
0
Статус: Offline


Сеятель зелени

Регистрация: 28.12.17
Сообщений: 2490
А чего там про клей на пицце? Не слышал чойто!

Размещено через приложение ЯПлакалъ
 
[^]
Zarin38
6.04.2025 - 01:02
3
Статус: Online


Дамилола

Регистрация: 16.01.15
Сообщений: 2851
У Пелевина в Трансгуманизме все уже описано как будет.

Человек на пороге эволюционного рывка. Человек разумный уступит место на планете человеку продвинутому, как было в свое время с неандертальцами и кроманьонцами.

Трансгуманизм — скоро. И от хомиков здесь уже ничего не зависит. Никакая мускусная ночь не поможет. Капитализм умноженный на общество потребления приведут к закономерному финалу хомосапиенсов.

Это сообщение отредактировал Zarin38 - 6.04.2025 - 01:06
 
[^]
невеган
6.04.2025 - 02:19
3
Статус: Offline


Ярила

Регистрация: 17.09.16
Сообщений: 1894
Да если бы мне 20 лет назад сказали, что я при помощи телефона, ценой в 10℅ от месячной зп смогу шарится в инете, качать фильмы, звонить по видеосвязи, и тд. Я бы достал из кармана кнопочный сименс, и поржал бы над этими словами. Но. Прошло всего 20 лет. Бля. Я застал винил, магнитные ленты, CD, DVD, сейчас по пьяни, чисто от нехуй делать купил VR шлем (в моем детстве это было просто фантастикой). И если я не сдохну в ближайшие 20 лет, я наверное даже телепортацию опробую. Технический прогресс, развивается в соответствии с геометрическим прогрессом.

Размещено через приложение ЯПлакалъ
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 5568
0 Пользователей:
Страницы: (2) [1] 2  [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх