Разработчики ИИ назвали его опасным и сравнили с ядерным апокалипсисом

 
7910
30 мая 2023 в 16:53
Источник: Клим Иванов
Источник: Клим Иванов

Очередная группа ученых в очередной раз обнародовала свои опасения по поводу рисков развития искусственного интеллекта. По их словам, развитие ИИ может привести к исчезновению человечества. Любопытно во всей этой ситуации то, что это обращение подписали сами авторы ИИ.

Обращение на этот раз совсем короткое. В нем указано, что снижение рисков уничтожения человечества из-за ИИ должно стать таким же приоритетным, как и предупреждение других масштабных опасностей вроде ядерного апокалипсиса или пандемий. Что предлагается? Регулирование развития ИИ в рамках какой-нибудь международной организации.

Письмо подписали сотни ученых и разработчиков, среди которых также оказались глава компании OpenAI, которая создала ChatGPT, представители лаборатории по изучению ИИ DeepMind, авторы генератора изображений по текстовым описаниям Stable Diffusion и многие другие ветераны ИИ-области.

Onlíner рекомендует
Apple iOS, экран 6.1" OLED (1179x2556) 60 Гц, Apple A16 Bionic, ОЗУ 6 ГБ, память 128 ГБ, камера 48 Мп, 1 SIM (nano-SIM/eSIM), влагозащита IP68
Onlíner рекомендует
Apple iOS, экран 6.1" OLED (1179x2556) 120 Гц, Apple A16 Bionic, ОЗУ 6 ГБ, память 128 ГБ, камера 48 Мп, аккумулятор 3200 мАч, 1 SIM (nano-SIM/eSIM), влагозащита IP68
Onlíner рекомендует
Apple iOS, экран 6.7" OLED (1290x2796) 120 Гц, Apple A17 Pro, ОЗУ 8 ГБ, память 256 ГБ, камера 48 Мп, аккумулятор 4422 мАч, 1 SIM (nano-SIM/eSIM), влагозащита IP68

Наш канал в Telegram. Присоединяйтесь!

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро