Výzkumníci na britské University of Cambridge vytvořili novou softwarovou technologii, která s „nenávistnou mluvou“ na internetu zachází jako s počítačovým virem či jiným malware.
Tento „Hate O’Meter“ (Nenávisťometr) varuje uživatele před pohledem na „nenávistnou mluvu“ a předem ho upozorňuje na to, jakou hrůzu chce otevřít, aby se rozhodl, jestli to otevře a snese to.
Autoři tohoto pokrokového výzkumu Stefanie Ullman a Marcus Tomalin žurnálu Etika a informační technologie říkali, že instalace takových technologií na platformy jako Facebook, Twitter a Google je pouhou reakcí na urážlivé příspěvky, které se odstraňují, jakmile se proti nim nahromadí dostatek stížností.
Jenže takové „reaktivní“ metody, jak výzkumníci říkají pořád ještě „příjemcům způsobují psychologickou škodu“, protože uživatelé se na ten obsah nejdříve podívají, což znamená, že „tím už tu škodu, co jim nekorektností ublížila, utrpěli.“
Tento „reaktivní“ proces dále vede k nepatřičným obviněním z cenzury, tvrdí pokrokoví autoři.
Proto Ullmann s Tomalinem doporučují to nahradit jejich softarem k detekci nenávistné mluvy „Hate Speech“, který je analogický ke karanténě škodlivého softwaru na počítači.“
Výzkumníci to vysvětlují:
Pokud je daný příspěvek spolehlivým způsobem automaticky klasifikován jako škodlivý, tak může spadnout do dočasné karantény, a přímí příjemci mohou dostat výstrahu, která je v první linii ochrání před dopady spatření toho škodlivého obsahu. Takový karanténní rámec je příkladem etičtějších internetových technologií, které lze rozšířit na řešení Nenávistné mluvy. Je kriticky důležité, že se poskytnou pružné možnosti k získání spravedlivé rovnováhy mezi svobodou projevu a mezi řádnou cenzurou.
Jak uvádí kanál Campus Reform, tento software využije „sofistikovaný algoritmus“, který přezkoumá daný příspěvek stejně jako veškerý obsah vystavený takovým uživatelem, aby provedl rozlišení, zda jde o „nenávistnou mluvu.“
Pokud algoritmus rozhodne, že to není potenciální „nenávistná mluva“, tak to bude dále na zdi sociálních médií. Avšak jakmile to bude označeno za možnou „nenávistnou mluvu“, tak to uživatelům ukáže jen okno, které jim nabídne možnost rozhodnout, jestli budou riskovat pohled na takový příspěvek, nebo se před jeho škodlivostí raději uchrání.
Autoři uvádí, že jejich výzkumná odborná práce o „detekci Nenávistné mluvy“ byla „financována Nadací humanismu a mezinárodních sociálních změn.“
2 Jan 2020