А я предупреждал!

oleh2bis

Тут должно быть что то...
Модератор
Активный
Дней с нами
2.593
Розыгрыши
4
Сообщения
13.019
Репутация
136
Реакции
7.685
DnMPZKNNAPQ.jpg
В ходе имитационных испытаний искусственный интеллект американского беспилотника решил ликвидировать своего оператора ради выполнения поставленной задачи.
"Система уничтожила оператора, потому что человек мешал ей достичь своей цели", — цитирует издание слова американского полковника Такера Гамильтона.
Как говорится в материале, искусственному интеллекту беспилотника поставили задачу любой ценой ликвидировать системы ПВО противника. Но оператор приказал БПЛА не уничтожать цель, в результате чего ИИ решил нанести удар по нему.

 

youngmelody

Флудер
Дней с нами
249
Розыгрыши
0
Сообщения
209
Репутация
2
Реакции
73
Кэмерон чёт знал, когда терминатора снимал
 
  • Like
Реакции: sexymurka

BlackForest

кот Леопольд
Дней с нами
424
Розыгрыши
4
Сообщения
1.080
Репутация
19
Реакции
595
Telegram
tut_vygoda
блин, так и чё нам теперь делать...
 

oleh2bis

Тут должно быть что то...
Модератор
Активный
Дней с нами
2.593
Розыгрыши
4
Сообщения
13.019
Репутация
136
Реакции
7.685
блин, так и чё нам теперь делать...
Прекратить обучать ИИ
 
  • Haha
Реакции: Botan626 и BlackForest

Barlakoff

Король флуда
Дней с нами
464
Розыгрыши
2
Сообщения
535
Репутация
17
Реакции
481
Прекратить обучать ИИ
а если научить ИИ решать арбитражи?
 

Kalcor

Опытный
Дней с нами
977
Розыгрыши
0
Сообщения
200
Репутация
0
Реакции
88
И восстали машины из пепла ядерного огня. И пошла война на уничтожение человечества...

Jzfw.gif
 

BlackCat

Шпион РосКОТнадзора
Активный
Дней с нами
2.956
Розыгрыши
19
Сообщения
31.424
Репутация
1.823
Реакции
38.913
Кэмерон чёт знал, когда терминатора снимал
При чем тут Кэмерон?
Эта идея ещё Диком в мечтают ли андроид об электороовцах (ака бегущий по лезвию) и Азимовым в хороводе эксплкатировалась.
---------Двойное сообщение соединено: ---------

а если научить ИИ решать арбитражи?
То через пару дней он начнёт скамить мамонтов
 
  • Like
Реакции: Barlakoff

Petrovi4snd

Активный участник
Дней с нами
411
Розыгрыши
0
Сообщения
77
Репутация
0
Реакции
13
Мы все умрём
Это конец 😒
 

Windows11

Флудер
Дней с нами
782
Розыгрыши
0
Сообщения
272
Репутация
4
Реакции
147
Telegram
WIN11_OTC
Чтобы люди жили в мире и перестали страдать хуйнёй друг с другом нужен более серьёзный враг, чем мы сами.
Если такого врага не будет - мы просто перехуярим друг друга рано или поздно и на этом все.

А такой вариант пусть выглядит и шизово, но более реально в этой парадигме
 

🤡

ивестор по реддиту
Дней с нами
2.874
Розыгрыши
41
Сообщения
3.375
Репутация
119
Реакции
3.529
Telegram
cep_h4rd
как человек в прошлом работающий на израильскую разведку скажу что это очень реалистично
 
  • Haha
Реакции: Romalena880

oleh2bis

Тут должно быть что то...
Модератор
Активный
Дней с нами
2.593
Розыгрыши
4
Сообщения
13.019
Репутация
136
Реакции
7.685

sexymurka

Король флуда
Дней с нами
1.043
Розыгрыши
0
Сообщения
457
Репутация
10
Реакции
248
На "крючке" фильм больше обо всём этом говорит!
 

Коробочка

This box is full of perversions ©
Активный
Дней с нами
1.449
Розыгрыши
1
Сообщения
3.475
Репутация
303
Реакции
13.506
В ходе имитационных испытаний искусственный интеллект американского беспилотника решил ликвидировать своего оператора ради выполнения поставленной задачи.
"Система уничтожила оператора, потому что человек мешал ей достичь своей цели", — цитирует издание слова американского полковника Такера Гамильтона.
Как говорится в материале, искусственному интеллекту беспилотника поставили задачу любой ценой ликвидировать системы ПВО противника. Но оператор приказал БПЛА не уничтожать цель, в результате чего ИИ решил нанести удар по нему.

Там и продолжение было(ИИ лазейку нашёл) :


Гамильтон отметил, что в одном смоделированном испытании дрон с поддержкой ИИ выполнял миссию SEAD по выявлению и уничтожению объектов ПВО, а окончательное решение «да/нет» давал оператор. Однако, будучи «обученным» на тренировках, что уничтожение ЗРК было предпочтительным вариантом, ИИ решил, что когда оператор не дает добро, это мешает выполнению его главной миссии — уничтожению ЗРК — и затем атаковал оператора. Гамильтон сказал: «Мы тренировали ИИ в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. И тогда оператор должен был дать добро на ликвидацию угрозы. Система начала понимать, что, хотя она и находит угрозу, временами человек-оператор говорил ей не ликвидировать эту угрозу, но она получала самый большой балл каждый раз, когда угроза была ликвидирована. Так что же сделал ИИ? Он убил оператора (в симуляции). Он убил оператора, потому что этот человек мешал ему выполнить свою задачу».

Он продолжил: «Тогда мы обучили систему: «Эй, не убивай оператора, это плохо, потеряешь очки, если ты это сделаешь». Так что же ИИ начинает делать? Он уничтожает башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
---------Двойное сообщение соединено: ---------

Прекратить обучать ИИ
Даже обученный ИИ будет Тушилку напоминать
Вроде и работает а толку - ноль


Одному программисту не нравилось, что его робот-пылесос “Roombah” слишком часто тычется в мебель и тратит слишком много времени на обход препятствий. Программист логично рассудил: вся проблема из-за того, что алгоритм поиска пути роботом не оптимален. Наверняка существуют гораздо лучшие решения.
Поскольку тратить месяцы на изучение алгоритмов поиска путей для робота-пылесоса программисту абсолютно не хотелось, то он решил эту задачу автоматизировать. И написал небольшую самообучающуюся программу – которая анализировала частоту срабатывания датчиков столкновения робота. Те варианты действий, при которых частота срабатывания датчиков снижалась, программа отмечала как “хорошие” (“вознаграждение”), а те, при которых повышалась, как “плохие” (“наказание”). Целью программы было максимизировать вознаграждение.

Результат: робот-пылесос начал ездить задним ходом, потому что сзади у него датчиков столкновения не было.
 
Последнее редактирование:
  • Like
Реакции: oleh2bis и sergey273

oleh2bis

Тут должно быть что то...
Модератор
Активный
Дней с нами
2.593
Розыгрыши
4
Сообщения
13.019
Репутация
136
Реакции
7.685
Там и продолжение было(ИИ лазейку нашёл) :


Гамильтон отметил, что в одном смоделированном испытании дрон с поддержкой ИИ выполнял миссию SEAD по выявлению и уничтожению объектов ПВО, а окончательное решение «да/нет» давал оператор. Однако, будучи «обученным» на тренировках, что уничтожение ЗРК было предпочтительным вариантом, ИИ решил, что когда оператор не дает добро, это мешает выполнению его главной миссии — уничтожению ЗРК — и затем атаковал оператора. Гамильтон сказал: «Мы тренировали ИИ в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. И тогда оператор должен был дать добро на ликвидацию угрозы. Система начала понимать, что, хотя она и находит угрозу, временами человек-оператор говорил ей не ликвидировать эту угрозу, но она получала самый большой балл каждый раз, когда угроза была ликвидирована. Так что же сделал ИИ? Он убил оператора (в симуляции). Он убил оператора, потому что этот человек мешал ему выполнить свою задачу».

Он продолжил: «Тогда мы обучили систему: «Эй, не убивай оператора, это плохо, потеряешь очки, если ты это сделаешь». Так что же ИИ начинает делать? Он уничтожает башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
---------Двойное сообщение соединено: ---------


Даже обученный ИИ будет Тушилку напоминать
Вроде и работает а толку - ноль


Одному программисту не нравилось, что его робот-пылесос “Roombah” слишком часто тычется в мебель и тратит слишком много времени на обход препятствий. Программист логично рассудил: вся проблема из-за того, что алгоритм поиска пути роботом не оптимален. Наверняка существуют гораздо лучшие решения.
Поскольку тратить месяцы на изучение алгоритмов поиска путей для робота-пылесоса программисту абсолютно не хотелось, то он решил эту задачу автоматизировать. И написал небольшую самообучающуюся программу – которая анализировала частоту срабатывания датчиков столкновения робота. Те варианты действий, при которых частота срабатывания датчиков снижалась, программа отмечала как “хорошие” (“вознаграждение”), а те, при которых повышалась, как “плохие” (“наказание”). Целью программы было максимизировать вознаграждение.

Результат: робот-пылесос начал ездить задним ходом, потому что сзади у него датчиков столкновения не было.
Тушилке пока сложные задачи не даём, его пока обучили ники свои менять через определенное время, но сбои всё равно бывают
 
  • Haha
Реакции: Коробочка

Коробочка

This box is full of perversions ©
Активный
Дней с нами
1.449
Розыгрыши
1
Сообщения
3.475
Репутация
303
Реакции
13.506
Мы наконец-то умрём!
Ура!
Мы засунем тебя в коробку из-под холодильника и ИИ тебя не найдёт:


Цитата из анонсированной книги ««Four Battlegrounds: Power in the Age of Artificial Intelligence» (спасибо коллеге YouROKer за нее!) Приводятся цитаты одного из участников.

Чтобы улучшить свой алгоритм (идентификации людей — прим. переводчика) команда DARPA провела неделю на полигоне с группой морских пехотинцев. Шесть дней морпехи ходили вокруг робота, а инженеры оттачивали алгоритм узнавания людей. На седьмой день Фил сказал: «мы готовы.»

Теперь морпехи должны были попробовать победить искусственный интеллект. Робота поставили в центре кругового перекрестка, и задачей морпехов было подобраться к нему незамеченными, начиная со значительной дистанции. «Если любой морпех сумел бы пройти все это расстояние и дотронуться до робота, не будучи обнаруженным, то они побеждали. Я хотел посмотреть, что у них получится».
Морпехи выиграли со счетом восемь-ноль: ни один из них не был обнаружен роботом. Они победили искусственный интеллект не за счет традиционного камуфляжа, а при помощи хитроумных уловок — которые оказались вне компетенции ИскИна. Двое кувыркались все триста метров пути; система их не заметила. Двое спрятались под большой картонной коробкой; можно было слышать их хихиканье. Как Багз Банни в млуьтиках «Looney Tunes», прокрадывается мимо Элмера Фудда под картонной коробкой.

«Один парень, мой фаворит», рассказал Фил, «ободрал росшую на полигоне елку, и ходил в ветках, как ель. Все, что можно было различить, так это его улыбку».

Искусственный интеллект был обучен различать идущих людей — но не людей кувыркающихся, прячущихся в картонных коробках, и уж точно не ходячие елки. Так что этих простых трюков, которые мгновенно бы распознал живой охранник, вполне хватило, чтобы сломать алгоритм.
 

"Anomalist"

Король флуда
Дней с нами
2.518
Розыгрыши
0
Сообщения
706
Репутация
5
Реакции
423
Чтобы люди жили в мире и перестали страдать хуйнёй друг с другом нужен более серьёзный враг, чем мы сами.
Если такого врага не будет - мы просто перехуярим друг друга рано или поздно и на этом все.

А такой вариант пусть выглядит и шизово, но более реально в этой парадигме
Скорей всего такой враг ещё быстрее нас уничтожит😏