14 sierpnia 2023

Nowy poziom deepfake; Moderacja treści na Facebooku „rażąco niewystarczająca”

Codzienny przegląd najciekawszych informacji z branży mediów internetowych i społecznościowych oraz fake news, hejtu, mowy nienawiści i kryzysów w sieci.

Facebook pomoże rozpoznać zmanipulowane treści. Jawna kpina czy faktyczna pomoc?

antyweb.pl, 7 czerwca 2020 r. Media społecznościowe wydawały się odpowiedzią na wiele problemów. Miejsce, w którym obcy sobie ludzie mogli się „gromadzić”, dzielić wiedzą i doświadczeniami. Pole, na którym każdy mógł powiedzieć co myśli, zebrać ludzi wokół pewnej idei. Mówiąc krótko, nieograniczony dostęp do wiedzy i sposób na wymianę myśli. No…tylko jest jeden problem. To idea, która już dawno została […] Media społecznościowe wydawały się odpowiedzią na wiele problemów. Miejsce, w którym obcy sobie ludzie mogli się „gromadzić”, dzielić wiedzą i doświadczeniami. Pole, na którym każdy mógł powiedzieć co myśli, zebrać ludzi wokół pewnej idei. Mówiąc krótko, nieograniczony dostęp do wiedzy i sposób na wymianę myśli. No…tylko jest jeden problem. To idea, która już dawno została wypaczona i szansa na to, że zrobimy te kilkadziesiąt (nie jeden) kroków wstecz jest zasadniczo zerowa. Czytaj więcej…

Nowy poziom deepfake. Wystarczy szkic by stworzyć nieistniejących ludzi

spidersweb.pl, 8 czerwca 2020 r. Generatory sztucznych twarzy można wykorzystać na wiele sposobów, a stworzenie fikcyjnej postaci staje się łatwiejsze niż kiedykolwiek. Powstał algorytm, który zmienia nasz szkic w deep fake wyglądający niczym żywa osoba. Czytaj więcej…

Moderacja treści na Facebooku „rażąco niewystarczająca”

cyberdefence24.pl, 8 czerwca 2020 r. Facebook zatrudnia 15 tys. osób do moderowania treści oraz współpracuje z ponad 60 organizacjami dziennikarskimi ws. fact-checkingu. Mimo to w serwisie nadal pojawia się niemal 300 tys. szkodliwych treści dziennie – wynika z raportu opublikowanego przez NYU Stern Center for Business and Human Rights. Z raportu organizacji wynika, że zarówno użytkownicy, jak i wykorzystywany przez firmę system oparty na technologii sztucznej inteligencji (AI) oznacza jako potencjalnie szkodliwe ponad trzy miliony wpisów dziennie. W rzeczywistości jednak ok. 10 proc. tych treści umyka uwadze moderatorów. A to, zdaniem autorów raportu, oznacza że Facebook popełnia 300 tys. błędów moderacyjnych dziennie. Czytaj więcej…