Ученые объявили бойкот корейскому университету по разработке умного оружия
 
6025
25
04 апреля 2018 в 17:37
Автор: Станислав Иванейко. Фото: revengeofthefans.com

Более 50 ведущих специалистов в области робототехники и искусственного интеллекта объявили бойкот южнокорейскому университету KAIST. Причина — разработка оружия с ИИ в стенах этого учебного заведения. По мнению специалистов, подобные исследования угрожают безопасности человечества.

Организатором бойкота выступил профессор университета Нового Южного Уэльса (Австралия) Тоби Уолш. По его мнению, разработка смарт-оружия, которая ведется рядом стран (указаны США, Китай, Россия и Великобритания), ускоряет гонку вооружений, и оставаться в стороне уже нельзя.

При этом автономное оружие, уверен ученый, будет способно быстро развязать и масштабировать военные действия. Прекратить боевые столкновения окажется крайне сложно.

Бойкот означает запрет на любые контакты с представителями KAIST до тех пор, пока разрабатываемое оружие не будет находиться целиком под контролем человека.

Машинки на радиоуправлении в каталоге Onliner.by

Наш канал в Telegram. Присоединяйтесь!

Быстрая связь с редакцией: читайте паблик-чат Onliner и пишите нам в Viber!

Автор: Станислав Иванейко. Фото: revengeofthefans.com
Чтобы оставить свое мнение, необходимо войти или зарегистрироваться
ОБСУЖДЕНИЕ
04.04.2018 в 17:38
А почему бойкот именно южнокорейскому институту, а не тем странам, которые ведут разработку боевого ИИ?
04.04.2018 в 17:47
Ускоглазые войны хотят?
04.04.2018 в 17:50
А мы скоро бульбу будем сожать
04.04.2018 в 17:52
Ахаха - рука-лицо ! Объявите бойкот всем ведущим странам мира (США, Англия, Франция и т.п.) которые и начинают все войны в мире
04.04.2018 в 17:57
все же Кэмерон прикольное оружие придумал, зачетная щаставка
04.04.2018 в 18:16
Ерунда. Пока одни запрещают, другие делают, всегда так было.
04.04.2018 в 18:25
А я ЗА! Давайте уже быстрее расхреначим эту землю и опять будем в шкуре с дубинками бегать. Романтика :)
04.04.2018 в 18:29
Начало скайнет)
04.04.2018 в 18:37
и правильно делают, я с "Терминаторами" не сильно хочу воевать, а из вас вояки ещё те. одни укланисты и косари...
04.04.2018 в 18:38
Начало SkyNet.
04.04.2018 в 18:48
А почему бойкот именно южнокорейскому институту, а не тем странам, которые ведут разработку боевого ИИ?
"werebeer":

Почему - почему. Потому что так велено!
04.04.2018 в 19:03
Кто-то объявил бойкот, а кто-то просто заработает денег, прилично так.
И плевать ему на этические проблемы.
04.04.2018 в 19:13
Быстрее бы судный день, хоть что-то спасет нас от вусатых крэстоу
04.04.2018 в 19:42
Бойкот нужно давать одной замечательной стране, которая продает оружие всем и вся и спонсирует террористов. А в виде пожинания плодов они получают регулярные побоища в своей стране
04.04.2018 в 20:18
Бойкот нужно давать одной замечательной стране, которая продает оружие всем и вся и спонсирует террористов. А в виде пожинания плодов они получают регулярные побоища в своей стране
"Naaru":

И вам США никак не жалко? Это ж светоч демократии.
04.04.2018 в 22:57
Процесс запущен, никакими бойкотами его не остановишь...
04.04.2018 в 23:26
То-есть, ракеты самонаведения, мины (тоже убивают без участия человека) их не напрягают. "Законы робототехники" - это вымысел фантаста, а многие принимают его за аксиому)
05.04.2018 в 6:14
А почему бойкот именно южнокорейскому институту, а не тем странам, которые ведут разработку боевого ИИ?
"werebeer":

Потому что главный разработчик США только там самые продвинутые технологии, и угроза идёт от США для мира!!!
05.04.2018 в 8:51
Руки прочь от Терминатора
05.04.2018 в 9:12
При этом автономное оружие, уверен ученый, будет способно быстро развязать и масштабировать военные действия

Найдутся товарищи без ИИ, чтобы развязать и масштабировать военные действия.
05.04.2018 в 9:36
Кому-то кушать захотелось :-)
Байкот нужен в том случае, когда соперник отстал. А тут явно нехта тупит, А под видом Австралии решили выпендриться. Я даже знаю хто, дядька белобрысый :-)
05.04.2018 в 9:53
1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2.Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
05.04.2018 в 10:24
А бойкот получению з.п. они не объявили?
05.04.2018 в 10:42
1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2.Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
"p310isgood":

1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2.Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
"p310isgood":

К законам очень много вопросов. Например:
1. Что значит слово "вред" для робота? Только то что в него заложил человек. Можно заложить, что жизнь вредна и от нее надо избавляться.
2. Как насчет сложных решений. Человек страдает от болей. Ему необходимы обезболивающие наркотики, но наркотики это вред.
3. Человек дает приказ убить другого человека, который хочет его убить.
P. S. И давайте больше тупых комментариев про скайнет. Люди просто спят и видят как бы передать контроль над оружием кому- или чему-нибудь)))
05.04.2018 в 10:45
Бойкот нужно давать одной замечательной стране, которая продает оружие всем и вся и спонсирует террористов. А в виде пожинания плодов они получают регулярные побоища в своей стране
"Naaru":

И вам США никак не жалко? Это ж светоч демократии.
"werebeer":

Вы думаете, что уничтожение одной из стран решит проблему безопасности? Пока на этом можно легко, быстро и много заработать мир останется таким как есть.