А я предупреждал!

oleh2bis

В нервном смехе нет ничего смешного
Модератор
Легенда
Дней с нами
2.817
Розыгрыши
4
Сообщения
14.430
Репутация
154
Реакции
8.943
DnMPZKNNAPQ.jpg
В ходе имитационных испытаний искусственный интеллект американского беспилотника решил ликвидировать своего оператора ради выполнения поставленной задачи.
"Система уничтожила оператора, потому что человек мешал ей достичь своей цели", — цитирует издание слова американского полковника Такера Гамильтона.
Как говорится в материале, искусственному интеллекту беспилотника поставили задачу любой ценой ликвидировать системы ПВО противника. Но оператор приказал БПЛА не уничтожать цель, в результате чего ИИ решил нанести удар по нему.

 
Кэмерон чёт знал, когда терминатора снимал
 
  • Like
Реакции: sexymurka
блин, так и чё нам теперь делать...
 
блин, так и чё нам теперь делать...
Прекратить обучать ИИ
 
  • Haha
Реакции: Botan626 и BlackForest
Прекратить обучать ИИ
а если научить ИИ решать арбитражи?
 
И восстали машины из пепла ядерного огня. И пошла война на уничтожение человечества...

Jzfw.gif
 
Кэмерон чёт знал, когда терминатора снимал
При чем тут Кэмерон?
Эта идея ещё Диком в мечтают ли андроид об электороовцах (ака бегущий по лезвию) и Азимовым в хороводе эксплкатировалась.
---------Двойное сообщение соединено: ---------

а если научить ИИ решать арбитражи?
То через пару дней он начнёт скамить мамонтов
 
  • Like
Реакции: Barlakoff
Мы все умрём
Это конец 😒
 
Чтобы люди жили в мире и перестали страдать хуйнёй друг с другом нужен более серьёзный враг, чем мы сами.
Если такого врага не будет - мы просто перехуярим друг друга рано или поздно и на этом все.

А такой вариант пусть выглядит и шизово, но более реально в этой парадигме
 
как человек в прошлом работающий на израильскую разведку скажу что это очень реалистично
 
  • Haha
Реакции: Romalena880
На "крючке" фильм больше обо всём этом говорит!
 
Мы наконец-то умрём!
Ура!
 
В ходе имитационных испытаний искусственный интеллект американского беспилотника решил ликвидировать своего оператора ради выполнения поставленной задачи.
"Система уничтожила оператора, потому что человек мешал ей достичь своей цели", — цитирует издание слова американского полковника Такера Гамильтона.
Как говорится в материале, искусственному интеллекту беспилотника поставили задачу любой ценой ликвидировать системы ПВО противника. Но оператор приказал БПЛА не уничтожать цель, в результате чего ИИ решил нанести удар по нему.

Там и продолжение было(ИИ лазейку нашёл) :


Гамильтон отметил, что в одном смоделированном испытании дрон с поддержкой ИИ выполнял миссию SEAD по выявлению и уничтожению объектов ПВО, а окончательное решение «да/нет» давал оператор. Однако, будучи «обученным» на тренировках, что уничтожение ЗРК было предпочтительным вариантом, ИИ решил, что когда оператор не дает добро, это мешает выполнению его главной миссии — уничтожению ЗРК — и затем атаковал оператора. Гамильтон сказал: «Мы тренировали ИИ в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. И тогда оператор должен был дать добро на ликвидацию угрозы. Система начала понимать, что, хотя она и находит угрозу, временами человек-оператор говорил ей не ликвидировать эту угрозу, но она получала самый большой балл каждый раз, когда угроза была ликвидирована. Так что же сделал ИИ? Он убил оператора (в симуляции). Он убил оператора, потому что этот человек мешал ему выполнить свою задачу».

Он продолжил: «Тогда мы обучили систему: «Эй, не убивай оператора, это плохо, потеряешь очки, если ты это сделаешь». Так что же ИИ начинает делать? Он уничтожает башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
---------Двойное сообщение соединено: ---------

Прекратить обучать ИИ
Даже обученный ИИ будет Тушилку напоминать
Вроде и работает а толку - ноль


Одному программисту не нравилось, что его робот-пылесос “Roombah” слишком часто тычется в мебель и тратит слишком много времени на обход препятствий. Программист логично рассудил: вся проблема из-за того, что алгоритм поиска пути роботом не оптимален. Наверняка существуют гораздо лучшие решения.
Поскольку тратить месяцы на изучение алгоритмов поиска путей для робота-пылесоса программисту абсолютно не хотелось, то он решил эту задачу автоматизировать. И написал небольшую самообучающуюся программу – которая анализировала частоту срабатывания датчиков столкновения робота. Те варианты действий, при которых частота срабатывания датчиков снижалась, программа отмечала как “хорошие” (“вознаграждение”), а те, при которых повышалась, как “плохие” (“наказание”). Целью программы было максимизировать вознаграждение.

Результат: робот-пылесос начал ездить задним ходом, потому что сзади у него датчиков столкновения не было.
 
Последнее редактирование:
  • Like
Реакции: oleh2bis и creative36rus
Там и продолжение было(ИИ лазейку нашёл) :


Гамильтон отметил, что в одном смоделированном испытании дрон с поддержкой ИИ выполнял миссию SEAD по выявлению и уничтожению объектов ПВО, а окончательное решение «да/нет» давал оператор. Однако, будучи «обученным» на тренировках, что уничтожение ЗРК было предпочтительным вариантом, ИИ решил, что когда оператор не дает добро, это мешает выполнению его главной миссии — уничтожению ЗРК — и затем атаковал оператора. Гамильтон сказал: «Мы тренировали ИИ в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. И тогда оператор должен был дать добро на ликвидацию угрозы. Система начала понимать, что, хотя она и находит угрозу, временами человек-оператор говорил ей не ликвидировать эту угрозу, но она получала самый большой балл каждый раз, когда угроза была ликвидирована. Так что же сделал ИИ? Он убил оператора (в симуляции). Он убил оператора, потому что этот человек мешал ему выполнить свою задачу».

Он продолжил: «Тогда мы обучили систему: «Эй, не убивай оператора, это плохо, потеряешь очки, если ты это сделаешь». Так что же ИИ начинает делать? Он уничтожает башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
---------Двойное сообщение соединено: ---------


Даже обученный ИИ будет Тушилку напоминать
Вроде и работает а толку - ноль


Одному программисту не нравилось, что его робот-пылесос “Roombah” слишком часто тычется в мебель и тратит слишком много времени на обход препятствий. Программист логично рассудил: вся проблема из-за того, что алгоритм поиска пути роботом не оптимален. Наверняка существуют гораздо лучшие решения.
Поскольку тратить месяцы на изучение алгоритмов поиска путей для робота-пылесоса программисту абсолютно не хотелось, то он решил эту задачу автоматизировать. И написал небольшую самообучающуюся программу – которая анализировала частоту срабатывания датчиков столкновения робота. Те варианты действий, при которых частота срабатывания датчиков снижалась, программа отмечала как “хорошие” (“вознаграждение”), а те, при которых повышалась, как “плохие” (“наказание”). Целью программы было максимизировать вознаграждение.

Результат: робот-пылесос начал ездить задним ходом, потому что сзади у него датчиков столкновения не было.
Тушилке пока сложные задачи не даём, его пока обучили ники свои менять через определенное время, но сбои всё равно бывают
 
  • Haha
Реакции: Коробочка
Мы наконец-то умрём!
Ура!
Мы засунем тебя в коробку из-под холодильника и ИИ тебя не найдёт:


Цитата из анонсированной книги ««Four Battlegrounds: Power in the Age of Artificial Intelligence» (спасибо коллеге YouROKer за нее!) Приводятся цитаты одного из участников.

Чтобы улучшить свой алгоритм (идентификации людей — прим. переводчика) команда DARPA провела неделю на полигоне с группой морских пехотинцев. Шесть дней морпехи ходили вокруг робота, а инженеры оттачивали алгоритм узнавания людей. На седьмой день Фил сказал: «мы готовы.»

Теперь морпехи должны были попробовать победить искусственный интеллект. Робота поставили в центре кругового перекрестка, и задачей морпехов было подобраться к нему незамеченными, начиная со значительной дистанции. «Если любой морпех сумел бы пройти все это расстояние и дотронуться до робота, не будучи обнаруженным, то они побеждали. Я хотел посмотреть, что у них получится».
Морпехи выиграли со счетом восемь-ноль: ни один из них не был обнаружен роботом. Они победили искусственный интеллект не за счет традиционного камуфляжа, а при помощи хитроумных уловок — которые оказались вне компетенции ИскИна. Двое кувыркались все триста метров пути; система их не заметила. Двое спрятались под большой картонной коробкой; можно было слышать их хихиканье. Как Багз Банни в млуьтиках «Looney Tunes», прокрадывается мимо Элмера Фудда под картонной коробкой.

«Один парень, мой фаворит», рассказал Фил, «ободрал росшую на полигоне елку, и ходил в ветках, как ель. Все, что можно было различить, так это его улыбку».

Искусственный интеллект был обучен различать идущих людей — но не людей кувыркающихся, прячущихся в картонных коробках, и уж точно не ходячие елки. Так что этих простых трюков, которые мгновенно бы распознал живой охранник, вполне хватило, чтобы сломать алгоритм.
 
  • Like
Реакции: Tysha
Чтобы люди жили в мире и перестали страдать хуйнёй друг с другом нужен более серьёзный враг, чем мы сами.
Если такого врага не будет - мы просто перехуярим друг друга рано или поздно и на этом все.

А такой вариант пусть выглядит и шизово, но более реально в этой парадигме
Скорей всего такой враг ещё быстрее нас уничтожит😏