ТворчествоСлужба знакомствНовые лицаАфишаСправочникОбъявления
№ 41 (1200) от 10.10.2017 Обновление: 20.10.2017, 07:17 Самый большой сертифицированный тираж (30 800 экз.) в Курской области


В Курске вновь пройдет фестиваль «Антифон»

Батареи просят огня: отоплением в Курске занялась прокуратура
ФОБОС: погода в Курске


Евгений НОВИКОВ отвечает на вопросы читателей


Дарья Струкова: «Я разносторонний человек»

Архив ДДД на проекте «Яндекс.Новости»
Первое курское интернет-телевидение «46ТВ»
ГТРК
Телекомпания «ТАКТ»
Портал «Афиша 46»
ФК «Авангард» (Курск)
Rambler's Top100

Архивный номер № 32 (1191) от 8 августа 2017Планета загадок


ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

«Скайнет» уже рядом: язык ботов напугал ученых

Специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (ИИ) приняли решение об отключении одной из созданных ими систем ИИ после того, как выяснилось, что боты придумали свой собственный язык для общения, непонятный для людей. Эксперты обсуждают варианты того, до чего могли бы договориться боты, если бы их вовремя не остановили, и призывают ввести регулирование этой области технологий, чтобы ИИ не вышел из-под контроля человека.

В июне нынешнего года специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали исследование о том, как они занимаются обучением ботов диалогам с элементами согласования условий, достижения компромисса, то есть такому общению, которое обычный человек ведет ежедневно в разных ситуациях. Обучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с понятного английского на какой-то свой вариант языка с использованием английских слов, не имеющий смысла для человека. Во избежание непредсказуемых последствий – боты могли договориться о чем-то неизвестном – ученые отключили эту систему ИИ и запрограммировали дальнейшее общение ботов только на английском языке.

Ведению диалога двух ботов ученые FAIR обучали на примере ситуации, когда нужно поделить между собой ряд каких-либо предметов, имеющих разную ценность для каждого из собеседников. Например, им предложили поделить две книги, одну шляпу и три мяча, оба бота не знали, какую ценность каждый из этих предметов имеет для другого. Диалог выглядел примерно так: «Я хочу взять шляпу и мячи», «Шляпа нужна мне самому, но я могу отдать тебе все книги», «Книги мне не нужны, можешь забрать себе их и один мяч», «Два мяча», «Договорились». В зависимости от того, насколько успешно и быстро удавалось договориться виртуальным собеседникам, их поощряли соответствующими баллами.

Спустя какое-то время на новом этапе исследований ученые вдруг увидели, что боты начали говорить что-то невнятное. Диалог приобрел следующую форму: «Я могу могу я я все остальное», «Мячи ноль для меня для меня для меня для меня для меня для меня для меня для меня для». Поначалу ученые решили, что допустили какую-то ошибку в программировании. Однако дальнейший анализ ситуации показал, что система ИИ с возможностью обучения и саморазвития просто позволила ботам найти новый способ достижения цели – вести диалог с наибольшей скоростью и большей эффективностью (ведь от того, насколько успешно будет завершен диалог, каждый получает награду), и для этого собеседники перешли на более удобный в данной ситуации язык. Ученые приняли решение отключить эту систему ИИ во избежание непредвиденных последствий.

«Боты отошли от использования понятного языка и начали изобретать для себя словесные коды, – пояснил ученый. – Ну, как например, если бы я сказал какое-то слово пять раз, то вы бы это поняли как то, что я хочу пять штук чего-то. Это не слишком отличается от того, как люди создают в языке какие-то сокращения».

Инцидент с ботами произошел через несколько дней после спора главы Facebook Марка Цукерберга и основателя SpaceX, Tesla и PayPal Илона Маска. Маск, выступая на заседании Национальной ассоциации губернаторов США, назвал искусственный интеллект «фундаментальной угрозой для человечества». Он сослался на свои собственные знания в области ИИ, которые привели его к мысли о потенциальной опасности искусственного разума. «Я продолжаю бить тревогу, но пока люди сами не увидят роботов, которые ходят по улицам и убивают людей, они не узнают, как реагировать», – сказал он.

Основатель SpaceX призвал регулировать разработки искусственного интеллекта на государственном уровне, в том числе ограничить скорость их распространения.

Цукерберг скептически отнесся к заявлениям коллеги, назвав их «довольно безответственными». «В ближайшие пять или десять лет искусственный интеллект будет делать жизнь только лучше», – парировал Цукерберг. Нынешний инцидент с ботами глава Facebook пока не комментировал.

Маск был далеко не первым, кто озвучил опасения по поводу развития искусственного интеллекта. Еще в декабре 2014 года знаменитый британский физик Стивен Хокинг заявил, что «появление полноценного искусственного интеллекта может стать концом человеческой расы». «Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем», – сказал Хокинг.

kommersant.ru


Вверх  —  Отзывы читателей (0)  —  Написать отзыв  —  Версия для печати


Выскажите своё мнение о статье

Имя: *
E-mail:
Город:
Смайлики: smile super yes no beer wink tongue laugh finish boy love girl confuse joy good fright sleep wall amaze angry box shok star kill stop suicide
Текст * сообщения:
Защита от спама *: Введите 6 цифр на картинке  → 
Поля, отмеченные (*), обязательны для заполнения.





Горячие новости

Добро пожаловаться

Справочная


Читайте в печатном номере: ТВ-программа на 32 канала, интервью со звёздами, результаты ТВ-лотерей «Золотой ключ», «Бинго», «Русское лото», частные объявления, биржа труда, полезные советы, конкурсы и сканворды 16+возрастная категория сайта
Национальная тиражная служба Тираж еженедельника «Друг для друга» — 30 800 экземпляров — проверен и сертифицирован «Национальной тиражной службой» (г. Москва)
Посетителей сегодня: 3 203
Посетителей вчера: 19 532
Всего c 10.03.2003: 44 315 875
© ООО «Друг для друга - Медиа» (г. Курск), 2003–2017 При перепечатке ссылка на www.dddkursk.ru обязательна! Политика конфиденциальности Разработка сайта: КурскИНФО