Komisja Europejska twierdzi, że wielkie korporacje technologiczne takie jak Facebook (FB  ), Google (GOOGL  ) czy Twitter (TWTR  ) skutecznie radzą sobie z mową nienawiści. Według statystyk blisko 72% treści, które obrażają uczucia innych osób, jest skutecznie usuwana z tych portali.

Korporacje znacznie poprawiły swoją skuteczność w zakresie usuwania postów o charakterze obraźliwym. Według statystyk sprzed dwóch lat korporacje usuwały zaledwie 28% niedozwolonych treści, natomiast obecnie ten wskaźnik wynosi 72%. Firmy znacznie szybciej reagują na zgłoszenia użytkowników - w 2016 roku sprawdzały tylko 40% zgłoszonych treści w ciągu 24 godzin, natomiast teraz aż 89% sprawdzonych treści. W maju 2016 roku wielkie korporacje technologiczne - Facebook, Google, Twitter i Microsoft (MSFT  ) - podpisały się pod "Kodeksem postępowania w zakresie zwalczania mowy nienawiści w Internecie" (Code of conduct on countering illegal hate speech online) - jest to inicjatywa Komisji Europejskiej, której celem jest zwalczanie treści rasistowskich i ksenofobicznych. W 2018 roku kolejne cztery korporacje zdecydowały się na przyjęcie kodeksu postępowania, który dotyczy walki z mową nienawiści - były to Google+, Instagram, Snapchat (SNAP  ) i Dailymotion.

Przyjęcie kodeksu przez znane korporacje przyczyniło się do powstania licznych partnerstw między organizacjami społeczeństwa obywatelskiego, przedstawicielami władzy i platformami social media, które wspólnie działają na rzecz promowania tolerancji i edukacji. Według Komisji Europejskiej państwa członkowskie UE i korporacje mają obowiązek promowania wolności słowa w Internecie przy zachowaniu poprawności i wysokiej kultury. W opinii Komisji Europejskiej nadzór i monitorowanie treści nadal odbywa się z poszanowaniem wolności wypowiedzi. Vera Jourova, unijna komisarz ds. sprawiedliwości, w komunikacie prasowym stwierdziła, że "po dwóch i pół roku może powiedzieć, że wypracowaliśmy właściwe podejście - nowy standard w całej Europie dotyczy walką z mową nienawiści przy zachowaniu wolności słowa". Według Komisji Europejskiej "mowa nienawiści" to "publiczne podżeganie do przemocy lub nienawiść skierowana do konkretnej grupy lub osób na podstawie pewnych cech - rasa, kolor skóry, religia, pochodzenie narodowe lub etniczne".

Korporacje, które wprowadziły najskuteczniejsze algorytmy filtrowania treści, to YouTube, Facebook oraz Google+, które usuwają kolejno 85%, 82% i 80% zgłoszonych treści. Facebook zrobił znaczne postępy - jeszcze dwa lata temu skuteczność była na poziomie 28%. W ostatnich miesiącach Facebook spotkał się z ostrą krytyką w związku z dezinformacją, czyli rozpowszechnianiem tzw. fake newsów. Na początku lutego przedstawiciele Facebooka poinformowali, że usunęli blisko 800 fałszywych stron i kont związanych z Iranem.

Jedyna platforma social media, która pogorszyła wyniki w zakresie usuwania niepoprawnych treści to Twitter - w 2016 roku jego skuteczność wyniosła 19%, 2017 - 45,7%, a obecnie 43,5%. Karen White, dyrektorka ds. polityki w Twitterze, stwierdziła, że algorytmy sprawdzają obecnie 88% wszystkich zgłoszonych treści w ciągu 24 godzin. Informatycy Twittera poprawili politykę bezpieczeństwa oraz zaostrzyli systemy raportowania. Matt Brittin, szef Google EMEA, powiedział, że 10 000 pracowników ma za zadanie monitorowanie potencjalnych naruszeń regulaminu.