Większość z usuniętych treści została automatycznie oznaczona przez sztuczną inteligencję. Algorytmy znacząco przyspieszają też usuwanie niestosownych treści. 5 milionów filmów zablokowano zanim jeszcze ktokolwiek je zdążył zobaczyć.

Połowa z usuniętych filmów w okresie od października do grudnia 2017 roku miała mniej niż 10 wyświetleń. Nie byłoby to możliwe, gdyby nie sztuczna inteligencja wspomagająca pracę moderatorów. Z 8 milionów zgłoszonych filmów, 6.7 miliona zostało oznaczone automatycznie. Dla porównania, na początku zeszłego roku filmy z nieodpowiednią treścią zbierały w większości dużą widownię zanim portal zareagował usunięciem nagrania.

Algorytmy YouTube coraz skuteczniej blokują filmy zanim jeszcze ktokolwiek je wyświetli (graf. YouTube)

Proces usuwania filmów nie jest w pełni zautomatyzowany. Dane zebrane m.in. przez sztuczną inteligencję sprawdzają moderatorzy. YouTube stworzyło specjalny zespół zajmujący się przeglądaniem podejrzanych treści. Do końca roku ma w nim pracować 10 tysięcy osób. Firma współpracuje też ze 150 instytucjami, które pomagają walczyć z przemocą i wulgarnymi zachowaniami w sieci, a także terroryzmem. Są wśród nich ośrodki akademickie, organizacje pozarządowe i instytucje publiczne.

Sztuczna Inteligencja jest skuteczniejsza od ludzi w oznaczaniu nieodpowiednich treści (graf. YouTube)

Sztuczna inteligencja jest skuteczniejsza w wykrywaniu spamu i materiałów zawierających wulgarne treści. Pomimo, że YouTube otrzymał 9,3 miliona zgłoszeń od swoich użytkowników, tylko 1,5 miliona przypadków zostało uznane za faktycznie łamiące regulamin serwisu. Użytkownicy najczęściej zgłaszają treści erotyczne i spam. Tylko niewielka część zgłoszeń, bo jedynie 1,5 procent dotyczyła promocji terroryzmu.

 

 

 

 

 

 

Źródło: chip