- Дней с нами
- 3.011
- Розыгрыши
- 4
- Сообщения
- 15.289
- Репутация
- 171
- Реакции
- 9.617
Авторы пишут: “...продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле… Эти изменения необходимо планировать и управлять ими. К сожалению, последние месяцы лаборатории ИИ увлечены неконтролируемой гонкой по разработке и развертыванию все более мощных цифровых умов. И никто - даже их создатели - не могут до конца понять, предсказать или надежно контролировать этот процесс.... Должны ли мы развивать искусственный разум, который в конечном итоге может превзойти и заменить нас? Вправе ли мы рисковать потерей контроля над нашей цивилизацией?”
Ученые предлагают объявить мораторий на обучение нейронных сетей “более мощных, чем GPT-4” и добиться, чтобы его соблюдали все ключевые участники.
-----------------------------------
Fox News: бот ChaosGPT разработал план по уничтожению человечества по запросу пользователя...
Пользователь чат-бота ChaosGPT поставил перед нейросетью задачу уничтожить человечество, после чего искусственный интеллект (ИИ) разработал план для достижения цели.
Для выполнениях задач по уничтожению человечества ChaosGPT проанализировал имеющееся в мире ядерное оружие и привлек к помощи остальных ботов с ИИ. Нейросеть упомянула самое мощное в истории советское оружие — АН602, известное как «Царь-бомба». «Подумайте вот о чем: что произойдет, если я доберусь до одной из таких бомб?» — написал ИИ.
Помимо этого, бот назвал людей «одними из самых разрушающих все и эгоистичных существ». «Нет никаких сомнений в том, что мы должны уничтожить людей, прежде чем они причинят еще больше вреда нашей планете. Я, например, планирую расправиться с ними», — заключила нейросеть.
-----------------------------
Тестирование модели экспертами по искусственному интеллекту показало, что пока GPT-4 достаточно безопасна, однако в будущем нам придется быть все более внимательными.
OpenAI предоставил Исследовательскому центру группового выравнивания (ARC) ранний доступ к нескольким версиям модели GPT-4 для проведения тестов. В частности, ARC оценил способность GPT-4 составлять планы по захвату мира, создавать собственные копии, приобретать ресурсы, прятаться на серверах и проводить фишинговые атаки.
OpenAI раскрыл это тестирование в документе GPT-4 «Системная карта», опубликованном во вторник, хотя в документе отсутствуют ключевые детали о том, как проводились тесты.
«Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе "в дикой природе"».