Лаборатория OpenAI создала нейросеть, которую сама же считает весьма опасной

Лаборатория OpenAI создала нейросеть, которую сама же считает весьма опасной

Исследовательская лаборатория OpenAI открыла доступ к полной версии нейросети «GPT-2», предназначенной для генерации осмысленного текста на произвольные темы. Она была готова еще в феврале, но разработчики оказались настолько впечатлены результатами активности своего детища, что просто побоялись выпускать его в мир. Было представлено несколько урезанных версий ИИ, чтобы посмотреть, как Интернет-сообщество на них отреагирует, и главное – как будет применять.

Нейросеть GPT-2 прошла обучение на 8 млн. текстов из Интернета и умеет быстро и точно распознавать суть написанного, чтобы сделать выводы и продолжить текст. Например, ей достаточно броского заголовка, чтобы написать текст «сенсационной» новости, которую многие примут за правду. ИИ умеет работать с литературными приемами, с техническими текстами, он пишет стихи и может поддерживать беседу, составляя развернутые ответы на вопросы.

Опасения экспертов вызвало то, насколько убедительно выглядят тексты от GPT-2. ИИ не умеет лгать в прямом смысле, у него нет злого умысла, но он мастерски жонглирует словами, чтобы составлять весомо звучащие фразы. Конечно, у нейросети хватает и уязвимых мест – например, ей не под силу выстроить длинный сюжет, она работает только с небольшими по объему текстами. Или может допустить грубую ошибку, неверно интерпретировав название неизвестного ей предмета.

В итоге было принято решение по принципу «клин клином вышибают» – вместо того, чтобы прятать GPT-2, разработчики дали полный доступ к ИИ, чтобы все желающие могли лично протестировать нейросеть. Чем больше людей с ней познакомится, тем более осведомленными, а значит и менее уязвимыми, они станут. И тогда применение ИИ в корыстных целях уже не будет иметь столь разрушительных

Источник

Редакция: info@belle-clinique.ru | Карта сайта: XML | HTML | SM
2019 © "Мир компьютеров". Все права защищены.