81f720a5

Фейсбук будет считать обидные непосредственные трансляции при помощи ИИ

Генеральный директор практического механического изучения Фейсбук Хоакин Кандела (Joaquin Candela) сообщил Reuters о том, что организация действует над инвентарем для автоматического обнаружения в непосредственных передачах наготы, насилия и любого иного текста, нарушающего критерии применения соцсети. В настоящее время функция тестируется в Фейсбук Live.

Вместо того, чтобы рассчитывать на претензии клиентов и силами сотрудников их проверять, организация ввела технологию, которая собственноручно находит обидные элементы. По июньскому известию Reuters, организация действует над технологией поиска экстремистского текста — к примеру, суровых снимков и видеороликов. Все-таки, для того, чтобы начать автоматом считать такой текст в непосредственных передачах, потребуется значительно больше сил.

Дискуссии по поводу передач в Фейсбук стартовали после того, как в прямом эфире чикагский полицейский застрелил ни в чём не покаянного Антонио Перкинса (Antonio Perkins). Запись трансляции не удалили из соцсети, но лишь отметили предостерегающим известием, так как видео было признано образцом настоящих результатов насилия. В то же самое время организация сообщила, что будет устранять с веб-сайта видеоролики, делающие из искусственных действий сенсацию.

Как пояснил Кандела, в настоящее время есть 2 существенные неприятности с поиском унизительного текста в непосредственных передачах. «Ваш метод компьютерного зрения должен быть мгновенным, и с данным, я полагаю, у нас есть возможность разобраться, — сообщил Кандела. — Однако ещё необходимо ставить предпочтения так что, чтобы человек, видящий наши требования, глядел на вещи и освобождался от них».

Вы можете оставить комментарий, или ссылку на Ваш сайт.

Оставить комментарий