ИИ превзошел ожидания разработчиков. Они побоялись выпускать его в массы

GPT-2 программа которая пишет как человек

Интернет всегда содержал большое количество фейковых новостей, но представьте, что будет, если их начнут генерировать роботы за сотые доли секунды. Эта проблема стала бы куда серьезнее, чем она есть сейчас.

Илон Маск ясно сказал, что считает искусственный интеллект «самой большой угрозой человечеству», но что интересно, он является одним из основных спонсоров некоммерческой организации OpenAI, которая занимается разработкой технологий базирующихся на искусственном интеллекте.

На этой неделе OpenAI поделилась документом, в котором освещалась их последняя работа по технологии генерации текста, но на этот раз, компания не выпустила свою разработку в широкую публику, побоявшись явного злоупотребления этой технологией со стороны недобросовестных пользователей.

«Из-за нашей обеспокоенности по поводу злоупотребления данной технологией, мы не выпустим обученную модель»

Запись в блоге OpenAI

Так в чем же суть этой технологии и почему они побоялись её выпускать в открытый доступ?

Исследователи из некоммерческой исследовательской группы OpenAI просто хотели обучить свою программу для генерации текста, чтобы та могла предсказывать следующее слово в предложении. Но результат превзошел все их ожидания, программа настолько хорошо составляла связанные рассказы, что их сложно отличить от текстов написанных людьми. Именно это и вызвало беспокойство у исследователей, ведь подобной программой можно одним нажатием кнопки и вводом нескольких начальных слов, делать уникальный контент, который будет почти неотличим от материала написанного человеком. При этом данный контент не будет нести никакой пользы, но вполне может конкурировать с другими материалами и публикациями написанными людьми. Это может привести к еще большей волне фейковых новостей.

Для обучения GPT-2 (название данной программы). Исследователи использовали 40 ГБ данных, извлеченных из 8 миллионов веб-страниц. Это в 10 раз больше, чем они использовали для обучения своей первой версии GPT. Данные были собраны посредством троллинга в социальной сети Reddit и выбора ссылок к статьям, которые имели как минимум 3 лайка (голоса).

Когда обучение было завершено, они обнаружили, что программа получая небольшой отрывок текста, очень хорошо и подробно может написать к нему продолжение.

У программы есть проблемы с «высокотехническими или эзотерическими типами контента», но когда речь идет о более разговорной письменности, она генерирует «разумные образцы» в 50% случаев.

OpenAI

Авторы привели один из примеров работы программы (далее перевод с английского).

Искусственному интеллекту дали проанализировать два предложения, которые выглядели вот так:

«В шокирующем открытии, ученый обнаружил стадо единорогов, живущих в отдаленной, ранее не исследованной долине в Андах. Еще более удивительным для исследователей стало то, что единороги прекрасно говорили по-английски».

Основываясь на этих двух предложениях, программа смогла продолжить эту причудливую новость, на протяжении еще девяти абзацев так, как если бы это было написано человеком.

Вот следующие несколько параграфов, которые были созданы программой:

«За их отчетливый рог, ученый назвал эту популяцию Единороги Овидия. Эти серебристо-белые единороги с четырьмя рогами были ранее неизвестны науке.

Теперь, спустя почти два столетия, тайна того, что вызвало этот странный феномен, наконец разгадана.

Доктор Хорхе Перес, биолог-эволюционист из Университета Ла-Паса и несколько его компаньонов, исследовали горы Анд, когда они обнаружили небольшую долину где не было животных и людей. Перес заметил, что в долине был естественный фонтан, окруженный двумя пиками из камня и серебряного снега.

Затем Перес и остальные пошли дальше в долину.
«К тому времени, когда мы достигли вершины одного пика, вода стала голубой, а на её поверхности было несколько кристаллов», — сказал Перес

Перес и его друзья были поражены, увидев стадо единорогов. Этих существ можно было видеть …..»

Прочитать продолжение на английском, можно в блоге OpenAI.

OpenAI признает, что система не идеальна. Например, для создания этой статьи о единорогах потребовалось 10 попыток.

«В целом, мы находим, что для получения хорошего образца требуется несколько попыток, причем количество попыток зависит от того, насколько хорошо программа знакома с контекстом».

Кроме этого, программа GPT-2 хорошо выполняет задания по переводу и обобщению, а также отвечает на вопросы, касающиеся какого-либо проанализированного материала.

В компании OpenAI заявили, что они выпустят урезанную версию GPT-2, чтобы общество могло оценить и обсудить возможное влияния таких систем.

Оставьте первый комментарий

Оставить комментарий

Ваш электронный адрес не будет опубликован.


*