Руководитель отдела искусственного интеллекта Facebook объясняет, как алгоритмы контролируют контент - и работает ли он

  • 13-03-2020
  • комментариев

Марк Цукерберг делает ставку на искусственный интеллект для решения многих проблем Facebook. Дрю Ангерер / Getty Images

Марк Цукерберг дал нам понять, что проблемы Facebook стали настолько серьезными, что только искусственный интеллект имеет шанс их решить, особенно те, которые возникают из-за непрерывного потока контента, генерируемого Facebook более двух миллиардов пользователей, говорящих на разных языках.

Важно не только количество контента, циркулирующего на Facebook. Например, контент терроризма кажется достаточно простым для обработки алгоритмов. «Я думаю, что у нас есть возможности для 30 языков, над которыми мы работаем», - сказал Цукерберг о команде Facebook, состоящей из 200 человек, которые на слушаниях в Конгрессе в апреле прошлого года занимались отметкой и удалением террористических материалов. «И, в дополнение к этому, у нас есть ряд инструментов искусственного интеллекта, которые мы разрабатываем ... которые могут заранее помечать контент».

СМОТРИ ТАКЖЕ: Никто, кажется, не покупает «мягкую сторону» Марка Цукерберга

Но есть вредный контент, который трудно обнаружить даже людям, например, язык вражды, который, как признал Цукерберг, «имеет нюансы» и «является областью, в которой, я думаю, чувства общества также быстро меняются».

Итак, как же появились эти инструменты ИИ после того, как Цукерберг рекламировал их на Капитолийском холме? И они работают? В новом интервью журналу Wired глава отдела искусственного интеллекта Facebook Джером Песенти поделился собственными глазами о прогрессе - а также ограничениях - развития искусственного интеллекта в гиганте социальных сетей.

«Мы добились большого прогресса», - сказал Пезенти об использовании ИИ в контроле над контентом. «Автоматическая модерация или даже совместная работа людей и компьютеров в масштабе Facebook - очень сложная задача».

Как и в случае с темпами развития в более широкой области ИИ, лаборатория ИИ Facebook сначала добилась прогресса в понимании графического контента, который пригодился для обозначения наготы и насилия в изображениях и видео на платформе. По словам Песенти, лаборатория недавно сделала прорыв в понимании языка. «Мы можем понять, пытаются ли люди запугать, если это разжигание ненависти или это просто шутка».

«Ни в коей мере это не решенная проблема, но есть явный прогресс», - он добавлен.

Facebook также работает над инструментами для обнаружения Deepfake-видео, которые, по словам Пезенти, пока не представляют серьезной проблемы для Facebook, но его команда «пытается действовать проактивно».

Говоря о более общем ИИ и его всеобъемлющей цели с точки зрения воздействия на человеческое общество, Пезенти признал, что этой области еще предстоит пройти долгий путь.

«Как лаборатория, наша цель - соответствовать человеческому интеллекту. … Глубокое обучение и текущий ИИ, если честно, имеют множество ограничений », - сказал он. «Мы очень, очень далеки от человеческого интеллекта, и есть некоторые обоснованные критические замечания: он может распространять человеческие предубеждения, его нелегко объяснить, в нем нет здравого смысла, это больше связано с сопоставлением с образцом, чем с надежностью. семантическое понимание ».

комментариев

Добавить комментарий