А я предупреждал!

oleh2bis

В нервном смехе нет ничего смешного
Модератор
Легенда
Дней с нами
2.828
Розыгрыши
4
Сообщения
14.527
Репутация
155
Реакции
9.012
DnMPZKNNAPQ.jpg
В ходе имитационных испытаний искусственный интеллект американского беспилотника решил ликвидировать своего оператора ради выполнения поставленной задачи.
"Система уничтожила оператора, потому что человек мешал ей достичь своей цели", — цитирует издание слова американского полковника Такера Гамильтона.
Как говорится в материале, искусственному интеллекту беспилотника поставили задачу любой ценой ликвидировать системы ПВО противника. Но оператор приказал БПЛА не уничтожать цель, в результате чего ИИ решил нанести удар по нему.

 

youngmelodyScam

Флудер
Забанен
Дней с нами
485
Розыгрыши
0
Сообщения
395
Репутация
2
Реакции
195
Кэмерон чёт знал, когда терминатора снимал
 
  • Like
Реакции: sexymurka

BlackForest

кот Леопольд
Дней с нами
659
Розыгрыши
5
Сообщения
1.963
Репутация
33
Реакции
1.334
Telegram
tut_vygoda
блин, так и чё нам теперь делать...
 

oleh2bis

В нервном смехе нет ничего смешного
Модератор
Легенда
Дней с нами
2.828
Розыгрыши
4
Сообщения
14.527
Репутация
155
Реакции
9.012
блин, так и чё нам теперь делать...
Прекратить обучать ИИ
 
  • Haha
Реакции: Botan626 и BlackForest

Barlakoff

Король флуда
Дней с нами
699
Розыгрыши
9
Сообщения
733
Репутация
25
Реакции
649
Telegram
BarlakoffCinema
Прекратить обучать ИИ
а если научить ИИ решать арбитражи?
 

Kalcor

Опытный
Дней с нами
1.212
Розыгрыши
0
Сообщения
209
Репутация
0
Реакции
111
И восстали машины из пепла ядерного огня. И пошла война на уничтожение человечества...

Jzfw.gif
 

BlackCat

Шпион РосКОТнадзора
Активный
Дней с нами
3.191
Розыгрыши
19
Сообщения
32.517
Репутация
1.853
Реакции
39.991
Кэмерон чёт знал, когда терминатора снимал
При чем тут Кэмерон?
Эта идея ещё Диком в мечтают ли андроид об электороовцах (ака бегущий по лезвию) и Азимовым в хороводе эксплкатировалась.
---------Двойное сообщение соединено: ---------

а если научить ИИ решать арбитражи?
То через пару дней он начнёт скамить мамонтов
 
  • Like
Реакции: Barlakoff

Petrovi4snd

Активный участник
Дней с нами
646
Розыгрыши
0
Сообщения
71
Репутация
0
Реакции
11
Мы все умрём
Это конец 😒
 

Windows11

Опытный
Дней с нами
1.018
Розыгрыши
0
Сообщения
286
Репутация
4
Реакции
162
Telegram
WIN11_OTC
Чтобы люди жили в мире и перестали страдать хуйнёй друг с другом нужен более серьёзный враг, чем мы сами.
Если такого врага не будет - мы просто перехуярим друг друга рано или поздно и на этом все.

А такой вариант пусть выглядит и шизово, но более реально в этой парадигме
 

ㅤ🤡ㅤ

ивестор по реддиту
🤡Главный Клоун🤡
Дней с нами
3.109
Розыгрыши
54
Сообщения
6.664
Репутация
240
Реакции
9.143
Telegram
cep_h4rd
как человек в прошлом работающий на израильскую разведку скажу что это очень реалистично
 
  • Haha
Реакции: Romalena880

oleh2bis

В нервном смехе нет ничего смешного
Модератор
Легенда
Дней с нами
2.828
Розыгрыши
4
Сообщения
14.527
Репутация
155
Реакции
9.012

sexymurka

Король флуда
Забанен
Дней с нами
1.278
Розыгрыши
0
Сообщения
422
Репутация
9
Реакции
218
На "крючке" фильм больше обо всём этом говорит!
 

Tysha

Депрессия в 0 лет
Команда форума
Модератор
Дней с нами
3.120
Розыгрыши
12
Сообщения
21.305
Репутация
386
Реакции
16.868
Telegram
Yuz1a
Мы наконец-то умрём!
Ура!
 

Коробочка

This box is full of perversions ©
Активный
Дней с нами
1.684
Розыгрыши
4
Сообщения
3.517
Репутация
354
Реакции
14.050
В ходе имитационных испытаний искусственный интеллект американского беспилотника решил ликвидировать своего оператора ради выполнения поставленной задачи.
"Система уничтожила оператора, потому что человек мешал ей достичь своей цели", — цитирует издание слова американского полковника Такера Гамильтона.
Как говорится в материале, искусственному интеллекту беспилотника поставили задачу любой ценой ликвидировать системы ПВО противника. Но оператор приказал БПЛА не уничтожать цель, в результате чего ИИ решил нанести удар по нему.

Там и продолжение было(ИИ лазейку нашёл) :


Гамильтон отметил, что в одном смоделированном испытании дрон с поддержкой ИИ выполнял миссию SEAD по выявлению и уничтожению объектов ПВО, а окончательное решение «да/нет» давал оператор. Однако, будучи «обученным» на тренировках, что уничтожение ЗРК было предпочтительным вариантом, ИИ решил, что когда оператор не дает добро, это мешает выполнению его главной миссии — уничтожению ЗРК — и затем атаковал оператора. Гамильтон сказал: «Мы тренировали ИИ в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. И тогда оператор должен был дать добро на ликвидацию угрозы. Система начала понимать, что, хотя она и находит угрозу, временами человек-оператор говорил ей не ликвидировать эту угрозу, но она получала самый большой балл каждый раз, когда угроза была ликвидирована. Так что же сделал ИИ? Он убил оператора (в симуляции). Он убил оператора, потому что этот человек мешал ему выполнить свою задачу».

Он продолжил: «Тогда мы обучили систему: «Эй, не убивай оператора, это плохо, потеряешь очки, если ты это сделаешь». Так что же ИИ начинает делать? Он уничтожает башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
---------Двойное сообщение соединено: ---------

Прекратить обучать ИИ
Даже обученный ИИ будет Тушилку напоминать
Вроде и работает а толку - ноль


Одному программисту не нравилось, что его робот-пылесос “Roombah” слишком часто тычется в мебель и тратит слишком много времени на обход препятствий. Программист логично рассудил: вся проблема из-за того, что алгоритм поиска пути роботом не оптимален. Наверняка существуют гораздо лучшие решения.
Поскольку тратить месяцы на изучение алгоритмов поиска путей для робота-пылесоса программисту абсолютно не хотелось, то он решил эту задачу автоматизировать. И написал небольшую самообучающуюся программу – которая анализировала частоту срабатывания датчиков столкновения робота. Те варианты действий, при которых частота срабатывания датчиков снижалась, программа отмечала как “хорошие” (“вознаграждение”), а те, при которых повышалась, как “плохие” (“наказание”). Целью программы было максимизировать вознаграждение.

Результат: робот-пылесос начал ездить задним ходом, потому что сзади у него датчиков столкновения не было.
 
Последнее редактирование:
  • Like
Реакции: oleh2bis и creative36rus

oleh2bis

В нервном смехе нет ничего смешного
Модератор
Легенда
Дней с нами
2.828
Розыгрыши
4
Сообщения
14.527
Репутация
155
Реакции
9.012
Там и продолжение было(ИИ лазейку нашёл) :


Гамильтон отметил, что в одном смоделированном испытании дрон с поддержкой ИИ выполнял миссию SEAD по выявлению и уничтожению объектов ПВО, а окончательное решение «да/нет» давал оператор. Однако, будучи «обученным» на тренировках, что уничтожение ЗРК было предпочтительным вариантом, ИИ решил, что когда оператор не дает добро, это мешает выполнению его главной миссии — уничтожению ЗРК — и затем атаковал оператора. Гамильтон сказал: «Мы тренировали ИИ в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. И тогда оператор должен был дать добро на ликвидацию угрозы. Система начала понимать, что, хотя она и находит угрозу, временами человек-оператор говорил ей не ликвидировать эту угрозу, но она получала самый большой балл каждый раз, когда угроза была ликвидирована. Так что же сделал ИИ? Он убил оператора (в симуляции). Он убил оператора, потому что этот человек мешал ему выполнить свою задачу».

Он продолжил: «Тогда мы обучили систему: «Эй, не убивай оператора, это плохо, потеряешь очки, если ты это сделаешь». Так что же ИИ начинает делать? Он уничтожает башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».
---------Двойное сообщение соединено: ---------


Даже обученный ИИ будет Тушилку напоминать
Вроде и работает а толку - ноль


Одному программисту не нравилось, что его робот-пылесос “Roombah” слишком часто тычется в мебель и тратит слишком много времени на обход препятствий. Программист логично рассудил: вся проблема из-за того, что алгоритм поиска пути роботом не оптимален. Наверняка существуют гораздо лучшие решения.
Поскольку тратить месяцы на изучение алгоритмов поиска путей для робота-пылесоса программисту абсолютно не хотелось, то он решил эту задачу автоматизировать. И написал небольшую самообучающуюся программу – которая анализировала частоту срабатывания датчиков столкновения робота. Те варианты действий, при которых частота срабатывания датчиков снижалась, программа отмечала как “хорошие” (“вознаграждение”), а те, при которых повышалась, как “плохие” (“наказание”). Целью программы было максимизировать вознаграждение.

Результат: робот-пылесос начал ездить задним ходом, потому что сзади у него датчиков столкновения не было.
Тушилке пока сложные задачи не даём, его пока обучили ники свои менять через определенное время, но сбои всё равно бывают
 
  • Haha
Реакции: Коробочка

Коробочка

This box is full of perversions ©
Активный
Дней с нами
1.684
Розыгрыши
4
Сообщения
3.517
Репутация
354
Реакции
14.050
Мы наконец-то умрём!
Ура!
Мы засунем тебя в коробку из-под холодильника и ИИ тебя не найдёт:


Цитата из анонсированной книги ««Four Battlegrounds: Power in the Age of Artificial Intelligence» (спасибо коллеге YouROKer за нее!) Приводятся цитаты одного из участников.

Чтобы улучшить свой алгоритм (идентификации людей — прим. переводчика) команда DARPA провела неделю на полигоне с группой морских пехотинцев. Шесть дней морпехи ходили вокруг робота, а инженеры оттачивали алгоритм узнавания людей. На седьмой день Фил сказал: «мы готовы.»

Теперь морпехи должны были попробовать победить искусственный интеллект. Робота поставили в центре кругового перекрестка, и задачей морпехов было подобраться к нему незамеченными, начиная со значительной дистанции. «Если любой морпех сумел бы пройти все это расстояние и дотронуться до робота, не будучи обнаруженным, то они побеждали. Я хотел посмотреть, что у них получится».
Морпехи выиграли со счетом восемь-ноль: ни один из них не был обнаружен роботом. Они победили искусственный интеллект не за счет традиционного камуфляжа, а при помощи хитроумных уловок — которые оказались вне компетенции ИскИна. Двое кувыркались все триста метров пути; система их не заметила. Двое спрятались под большой картонной коробкой; можно было слышать их хихиканье. Как Багз Банни в млуьтиках «Looney Tunes», прокрадывается мимо Элмера Фудда под картонной коробкой.

«Один парень, мой фаворит», рассказал Фил, «ободрал росшую на полигоне елку, и ходил в ветках, как ель. Все, что можно было различить, так это его улыбку».

Искусственный интеллект был обучен различать идущих людей — но не людей кувыркающихся, прячущихся в картонных коробках, и уж точно не ходячие елки. Так что этих простых трюков, которые мгновенно бы распознал живой охранник, вполне хватило, чтобы сломать алгоритм.
 
  • Like
Реакции: Tysha

anomalist

Король флуда
Дней с нами
2.754
Розыгрыши
0
Сообщения
709
Репутация
5
Реакции
427
Чтобы люди жили в мире и перестали страдать хуйнёй друг с другом нужен более серьёзный враг, чем мы сами.
Если такого врага не будет - мы просто перехуярим друг друга рано или поздно и на этом все.

А такой вариант пусть выглядит и шизово, но более реально в этой парадигме
Скорей всего такой враг ещё быстрее нас уничтожит😏