Kompenzace Za Znamení Zvěrokruhu
Nastavitelnost C Celebrity

Zjistěte Kompatibilitu Znamení Zodiac

Vandalismus na Wikipedii by mohl zmařit falešné zprávy na Googlu, YouTube a Facebooku

Ověřování Faktů

Kalifornská republikánská strana na krátký okamžik podporovala nacismus. Alespoň to řekl Google.

Je to proto, že někdo 31. května poničil stránku Wikipedie pro stranu, aby na ní uvedl „nacismus“ vedle ideologií jako „konzervatismus“, „tržní liberalismus“ a „fiskální konzervatismus“. Chyba byla odstraněna z výsledků vyhledávání pomocí Googlu objasnění pro Vice News že vyhledávači se nepodařilo zachytit vandalismus v záznamu na Wikipedii.

Google má dlouho nakreslený online encyklopedie pro přidávání základních informací k výsledkům vyhledávání. Podle protokol úprav pro stránku Kalifornie GOP, někdo přidal 'nacismus' do stranické sekce ideologie kolem 7:40 UTC 31. května. Úprava byla odstraněna během minuty, ale zdá se, že algoritmus Google stránku seškrábal právě včas, aby byl falešný.

„Někdy lidé vandalizují veřejné informační zdroje, jako je Wikipedie, což může ovlivnit informace, které se objevují ve vyhledávání,“ řekl Poynterovi v e-mailu mluvčí Googlu. „Máme zavedené systémy, které zachytí vandalismus dříve, než ovlivní výsledky vyhledávání, ale občas se chyby provalí, a to se stalo zde.“

Wikimedia Foundation, nezisková organizace provozující Wikipedii, také vydala prohlášení na Twitteru.

Podle společnosti Google více než 99,9 procenta úprav Wikipedie, které se zobrazují ve znalostních panelech, které zobrazují základní informace o klíčových slovech, která lze vyhledávat v horní části výsledků, nejsou vandalismem. Uživatel, který je autorem původní úpravy stránky GOP v Kalifornii nepoužil uživatelský profil , takže je těžké je vystopovat.

To je běžná taktika mezi lidmi, kteří ničí stránky Wikipedie, což je praktika neziskové organizace obsáhle zdokumentováno . Ale vzhledem k množství úprav, které jsou na Wikipedii provedeny — asi 10 za sekundu , se 600 novými stránkami denně – a skutečnost, že Facebook a YouTube z nich nyní stahují, aby příspěvkům poskytly více kontextu, je potenciál a účinek zneužití vysoký.

'Samozřejmě je to dost slabý způsob, jak bojovat proti falešným zprávám, protože Wikipedie není spolehlivým zdrojem informací - jak uznává i Wikipedia,' řekla Magnus Pharao Hansen , postdoktorandský výzkumný pracovník na univerzitě v Kodani, ve zprávě Poynterovi. 'Wikipedie je velmi zranitelná vůči hoaxům a obsahuje všechny druhy dezinformací, takže to není příliš vážný způsob, jak bojovat s problémem vymyšlených zpráv.'

Hansen upravuje stránky Wikipedie asi 10 let a řekl, že vandalismus je na platformě samozřejmostí. Počet redaktorů ubylo v posledních letech, zatímco online partyzáni ano se stále více zaměřoval na platformu - problém, který přišel na řadu během kontroverze Gamergate v roce 2014. Je to v podstatě hra s čísly.

To je na hony vzdálené kde byla Wikipedie v roce 2005 , když studie zjistila, že je asi tak přesná jako Britannica. A pro dobrovolné editory je obtížnější bojovat proti vandalismu ve velkém na Wikipedii, což nevěstí nic dobrého pro jeho použití k boji proti dezinformacím na jiných platformách.

'Určitě je na Wikipedii mnoho nesprávných informací a mnoho z nich zůstane,' řekl Hansen. „Často někdo napíše článek a může to trvat roky, než někdo přijde a upraví ho. Lidé neprovádějí ověřování faktů, pokud něco nevypadá, že to opravdu není na místě.“

Jeden vymyšlený článek na Wikipedii žil na webu deset let, než byl v roce 2015 smazán.

Platforma zároveň prokázala odolnost vůči typům hoaxů, které se pravidelně šíří virem Facebook a Cvrlikání . odhady Wikimedia že asi 2,5 procenta denních úprav je vandalismus, a Samantha Lien, manažerka komunikace pro Wikimedia, poukázala na algoritmus, který automaticky označuje sporné úpravy jako klíčový úspěch pro její snahy o integritu.

'Články mají tendenci poskytovat vyváženou reprezentaci faktů a stránka se až do této chvíle ukázala jako odolná vůči falešným zprávám a dezinformacím,' řekla Poynterovi v e-mailu. 'V posledních několika letech jsme také spolupracovali s dobrovolnými editory na vytvoření a vylepšení nástrojů pro moderování, abychom rychle identifikovali a řešili vandalismus na Wikipedii.'

Kromě vlastních omezení Wikipedie jsou vlastní systémy technických platforem často předmětem chyb a kontroverzí – zejména panely znalostí.

Také 31. května pátrání po republikánském senátorovi podporujícím Donalda Trumpa v Severní Karolíně vynořil obrázek s nápisem „bigot“ na spodní straně. V lednu The Daily Caller zjistil, že Google nesprávně připojoval ověření faktů ke svému obsahu a ne k obsahu jiných prodejen. To vedlo technologickou společnost k pozastavení funkce, dokud nevyřeší chyby.

Google řekl Poynterovi, že ručně nemění výsledky vyhledávání tak, aby upřednostňovaly jednu stranu před druhou. Ale jeho algoritmy jsou pravidelně hrané hoaxy , falešné reklamy a trolly snažící se změnit výsledky vyhledávání. A tyto problémy by se mohly rozšířit na další platformy odkazující na Wikipedii.

„Když více mediálních platforem používá obsah z Wikipedie nekriticky, zvyšuje to sázky – jak pro ty, kteří by uváděli v omyl nebo podvod, tak pro ty, kteří by šířili znalosti,“ řekl Hansen. 'Myslím si, že zejména s odkazem na Wikipedii z videí YouTube o konspiračních teoriích by to mohlo mít za následek přitažení nesprávného davu.'

V březnu, YouTube oznámil že by v popisech videí odkazoval přímo na stránky Wikipedie, aby poskytl více kontextu a odhalil virové konspirační teorie, které často virální po nejnovějších událostech. Tyto „informační podněty“ – které byly představeny na platformě bez vědomí Wikipedie — bude obsahovat krátký řádek o zdroji a odkaz na jeho stránku Wikipedie.

Tato funkce ještě nebyla zavedena, ale YouTube představil podobnou v únoru, která poskytuje více kontextu zpravodajským organizacím, které dostávají peníze od vlády USA.

Youtube

(Snímek obrazovky z YouTube)

Vzhledem ke zvýšené viditelnosti stránek Wikipedie si lze představit, že by se na platformu mohli hrnout vandalové, aby pomocí jedné úpravy trollovali více platforem.

„Nabourávání se do Wikipedie byl vždy problém, ale byl to problém, který skutečně ovlivnil pouze čtenáře Wikipedie. Nyní je to ještě nebezpečnější, protože platformy se stále více automaticky stahují z Wikipedie,“ řekla Claire Wardle, výkonná ředitelka First Draft, v e-mailu Poynterovi. „Pro agenty dezinformací, kteří chtějí maximální rozšíření, jakákoli technika, která zajistí, že se platformy nebo redakce budou opakovat, a tudíž legitimizovat nepravdu, poskytuje nepřiměřenou ‚návratnost investic‘.“

Navzdory tomu, že Wikipedia slouží jako zdroj pro více platforem, nezaznamenala nárůst vandalismu, řekl Lien. Ale když vidíme, jak dodatky zaskočily organizaci, není jisté, jak přesně ovlivní integritu stránek Wikipedie.

„Trend technologických společností využívajících Wikipedii k řešení problémů s dezinformacemi na svých vlastních platformách je pro nás novým územím a nevíme, jaké to bude mít úplné důsledky,“ řekla. „V krátkodobém horizontu bedlivě sledujeme, jak to ovlivňuje Wikipedii a naši globální komunitu dobrovolníků. Dosud jsme neviděli nic, co by naznačovalo širší problém vandalismu.“

Ale i kdyby došlo k nárůstu vandalismu na Wikipedii se záměrem změnit výsledky na platformách, Lien řekl, že organizace by to neměla jak vědět.

„Nemáme dostupná data, která by naznačovala trendy vandalismu s jasným záměrem manipulovat s jinými platformami,“ řekla.

Jaká je tedy pravděpodobnost, že se na jiné platformy dostane více dezinformací? Joseph Reagle, přidružený profesor komunikace na Northeastern University a expert na Wikipedii, řekl Poynterovi, ačkoli neexistuje žádný způsob, jak to zjistit bez správných monitorovacích systémů, struktura, která byla nastavena, by mohla dezinformace lépe zviditelnit – i když nejsou vytvořeny pro hru. platformy jako Google a Facebook.

'Ano, je to pravděpodobné a myslím si, že to bude ještě pravděpodobnější, protože tyto ziskové společnosti budou stále naskakovat do rozjetého vlaku,' řekl. „V případě Google si nemyslím, že záměrem úpravy bylo znečišťovat následné uživatele Wikipedie, ale stále to byl účinek. Skutečnost, že Wikipedia je používána těmito druhovými agregátory, také způsobí, že Wikipedie bude více cílem, což je znepokojivé.

Přesto, i když se Wikipedie zmenšuje, má stále angažovanou komunitu editorů, kteří ji mají roky zkušeností zpracování článků o nejnovějších zprávách. Nathan Matias, postdoktorandský výzkumný pracovník na Princetonské univerzitě, řekl Poynterovi v e-mailu, že dezinformace pravděpodobně kvůli této komunitě často neproniknou trhlinami.

Ale na okrajích stránek se tato šance podstatně zvyšuje.

„V případech nejnovějších zpráv, kde aktivisté všeho druhu vyvinuli způsoby, jak ovlivňovat platformové algoritmy rychleji než rychlost žurnalistiky, očekávám, že Wikipedia bude odolnější vůči ovlivňování,“ řekl. 'Rizika pro Wikipedii a platformy budou větší na okraji znalostí a pozornosti, protože je těžší odhalit malý proud lidí, kteří mají přístup k nízkoprofilovým extremistickým materiálům.'

Navzdory těmto výzvám někteří odborníci považují technologické platformy odkazující na stránky Wikipedie za krok vpřed v boji proti dezinformacím na internetu.

Eni Mustafaraj, odborná asistentka informatiky na Wellesley College, řekla Poynterovi v e-mailu, že přidání Wikipedie k velkým technologickým platformám je pozitivní krok. Ale přichází s výhradami.

'Musí to dělat důsledně, a ne pouze v boji proti dezinformacím, hoaxům nebo konspiračním teoriím,' řekla. 'Abychom bojovali proti dezinformacím, neměli bychom dát na starost Facebook a Google, protože to byli oni, kdo problém zhoršil.'

Odebírání informací z Wikipedie z platformy může zároveň čtenáře zmást. Hansen řekl, že vidět odkazy na stránky z platforem sociálních médií, i když jsou dobře označené, nevyvolá stejný druh skepticismu, jaký je vlastní uživatelům Wikipedie.

„Čtenář neví, že je to z Wikipedie. To zavádí vrstvu, kde si nemůžete být jisti zdrojem informací,“ řekl. 'Lidé jsou skeptičtí, když jsou na Wikipedii - můžete vidět, když tam není žádný zdroj... když jste na jiné platformě, nejste na takové věci pozorní.'

Pak je tu otázka šířky pásma. Vzhledem k tomu, že redakce stále klesá, Wikipedia možná bude chtít zvážit najmutí zaměstnanců na plný úvazek, jejichž úkolem je sledovat vandalismus a zajistit, aby se nerozšířil na jiné platformy. Hansen řekl, že si myslí, že nezisková organizace by měla vytvořit interní jednotku pro kontrolu faktů nebo si vyžádat odborné redaktory a akademiky, aby zvážili některé z podrobnějších stránek.

'Myslím, že to je jediný způsob, jak bojovat proti dezinformacím na Wikipedii,' řekl.

Lien přinejmenším navrhl, aby technologické platformy, které používají Wikipedii k boji proti dezinformacím, neziskové organizaci nějakým způsobem vracely – což je bod, který tvrdila výkonná ředitelka Wikimedia Katherine Maher. nedávný článek pro Wired . (Facebook a YouTube nejsou zahrnuty mezi největší dobrodince Wikimedia.)

„Vyzýváme společnosti, které používají obsah Wikipedie, aby vracely ve stejném duchu udržitelnosti,“ řekla. 'Tímto by se připojili k milionům jednotlivců, kteří se zapojují, aby udrželi Wikipedii silnou a prosperující.'

A Matias souhlasil.

„Pokud společnosti očekávají, že se při řešení některých ze svých nejtěžších problémů budou spoléhat na obrovské množství neplacené a často psychicky zatěžující práce od Wikipedistů a Wikimedia Foundation, musí najít způsoby, jak tuto práci podpořit a zároveň ochránit intelektuální nezávislost Wikipedie,“ řekl.