Hoe jij kan helpen het internet te transformeren naar een plek van vertrouwen
-
0:02 - 0:04Wie je ook bent of waar je ook woont,
-
0:04 - 0:06ik denk dat je tenminste
één familielid hebt -
0:06 - 0:09dat van die emails doorstuurt.
-
0:09 - 0:11Je weet dewelke ik bedoel,
-
0:11 - 0:14die met rare theorieën
of complotvideo's. -
0:14 - 0:17En je volgt hen waarschijnlijk
al niet meer op Facebook -
0:17 - 0:19omdat ze dit soort berichten delen.
-
0:19 - 0:21Een foto van een banaan
-
0:21 - 0:23met een vreemd, rood kruis in het midden.
-
0:23 - 0:26En de tekst erbij waarschuwt mensen
-
0:26 - 0:28om dit fruit niet te eten,
-
0:28 - 0:30omdat het geïnjecteerd zou zijn met bloed
-
0:30 - 0:32besmet met het hiv-virus.
-
0:32 - 0:35En de gedeelde boodschap
erboven zegt simpelweg: -
0:35 - 0:37"Alsjeblieft delen om levens te redden."
-
0:38 - 0:41Feitcheckers hebben deze
al jaren geleden ontkracht, -
0:41 - 0:44maar het is zo'n roddel
die maar niet wil uitdoven. -
0:44 - 0:45Een zombieroddel.
-
0:46 - 0:48En het is natuurlijk helemaal niet waar.
-
0:48 - 0:51Het is misschien verleidelijk
hierom te lachen, om te zeggen: -
0:51 - 0:53"Wie gelooft er nu zoiets?"
-
0:53 - 0:55Maar het is net een zombieroddel,
-
0:55 - 0:59omdat het spreekt tot de diepste angsten
over mensen hun eigen veiligheid -
0:59 - 1:01en die van de mensen waar ze van houden.
-
1:02 - 1:05En als je genoeg tijd spendeert
aan kijken naar misinformatie, -
1:05 - 1:08dan weet je dat dit
een van de vele voorbeelden is -
1:08 - 1:11dat mensen hun diepste
angsten en zwaktes oproept. -
1:11 - 1:16Elke dag zien we wereldwijd
een hoop nieuwe memes op Instagram -
1:16 - 1:19die ouders aanmoedigen
om hun kinderen niet te vaccineren. -
1:19 - 1:23We zien nieuwe video's op YouTube
die klimaatverandering een hoax noemen. -
1:23 - 1:28En over alle platformen heen
zien we posts die anderen demoniseren -
1:28 - 1:31op basis van hun kleur,
religie of seksualiteit. -
1:32 - 1:35Welkom bij een van
de kernuitdagingen van onze tijd. -
1:36 - 1:40Hoe kunnen we een internet behouden
gebaseerd op vrijheid van meningsuiting, -
1:40 - 1:43maar ook verzekeren
dat de verspreide informatie -
1:43 - 1:47geen onomkeerbare schade toebrengt
aan onze democratieën, gemeenschappen -
1:47 - 1:49en aan ons fysiek en mentaal welzijn?
-
1:50 - 1:52We leven wel in het informatietijdperk,
-
1:52 - 1:56maar de belangrijkste munteenheid
waar we van afhangen -- informatie -- -
1:56 - 1:58blijkt niet meer helemaal betrouwbaar
-
1:58 - 2:00en soms zelfs ronduit gevaarlijk.
-
2:01 - 2:05Dit is deels te danken
aan de onstuitbare groei van social media, -
2:05 - 2:06die ons er laten door scrollen,
-
2:06 - 2:09waar leugen en feit zij aan zij zitten,
-
2:09 - 2:12maar met geen enkel traditioneel
kenmerk van betrouwbaarheid. -
2:12 - 2:16En, o god, onze taal hierover
is verschrikkelijk verwarrend. -
2:16 - 2:19Mensen zijn nog steeds geobsedeerd
met het begrip 'fake news', -
2:19 - 2:22hoewel het buitengewoon onbehulpzaam is
-
2:22 - 2:25en gebruikt wordt om eigenlijk
totaal andere dingen te beschrijven: -
2:25 - 2:28leugens, roddels, hoaxen,
samenzweringen, propaganda. -
2:29 - 2:32En ik zou willen dat we geen begrip
meer zouden gebruiken -
2:32 - 2:35dat ingelijfd is door politici wereldwijd,
-
2:35 - 2:36zowel links als rechts,
-
2:36 - 2:39gebruikt als wapen om
vrije, onafhankelijke pers aan te vallen. -
2:40 - 2:45(Applaus)
-
2:45 - 2:48Want we hebben onze professionele
nieuwsmedia meer dan ooit nodig. -
2:49 - 2:52Het meeste van deze informatie
vermomt zich zelfs niet als nieuws. -
2:52 - 2:55Het zijn memes, video's,
social-mediaberichten. -
2:55 - 2:58En het meeste is niet vals;
het is misleidend. -
2:58 - 3:01We fixeren vaker op waar of niet waar.
-
3:01 - 3:05Maar de grootste zorg is eigenlijk
bewapening van de context. -
3:07 - 3:09Want de meest effectieve desinformatie
-
3:09 - 3:12is altijd al datgene geweest
waar een korrel waarheid in zit. -
3:12 - 3:15Neem nu dit voorbeeld
van Londen, maart 2017, -
3:15 - 3:17een tweet die overal circuleerde
-
3:17 - 3:21in de nasleep van een terreuraanslag
op Westminster Bridge. -
3:21 - 3:23Dit is een echte foto, niet vals.
-
3:23 - 3:26De vrouw op de foto
werd nadien geïnterviewd -
3:26 - 3:29en zij verklaarde
erg getraumatiseerd te zijn. -
3:29 - 3:30Zij was aan de lijn met een dierbare
-
3:30 - 3:33en uit respect keek ze niet
naar het slachtoffer. -
3:33 - 3:37En toch werd het verspreid
met deze islamofobe tekst, -
3:37 - 3:40met meerdere hashtags,
waaronder: #BanIslam. -
3:40 - 3:43Moest jij bij Twitter werken,
wat zou jij doen? -
3:43 - 3:45Zou je het weghalen of laten staan?
-
3:47 - 3:50Mijn instinct, mijn emotionele reflex
is dit verwijderen. -
3:50 - 3:52Ik haat de suggestiviteit van deze foto.
-
3:53 - 3:55Maar vrije meningsuiting
is een mensenrecht -
3:55 - 3:58en als we meningen weghalen
die ons ongemakkelijk doen voelen, -
3:58 - 3:59hebben we een probleem.
-
4:00 - 4:02En al lijkt dit een duidelijke zaak,
-
4:02 - 4:04meestal is een mening dat niet.
-
4:04 - 4:06Deze lijnen trekken is enorm moeilijk.
-
4:06 - 4:08Wat voor de één
een goedbedoelde beslissing is, -
4:08 - 4:10is ronduit censuur voor de ander.
-
4:11 - 4:14Wat we wel weten is
dat dit account, Texas Lone Star, -
4:14 - 4:17deel uitmaakte van een weidse,
Russische desinformatie-campagne -
4:17 - 4:19en ondertussen verwijderd is.
-
4:19 - 4:21Zou dat je mening veranderen?
-
4:21 - 4:22De mijne wel,
-
4:23 - 4:25want dan is het
een georganiseerde campagne -
4:25 - 4:26om verdeeldheid te zaaien.
-
4:26 - 4:28En zij die zouden denken
-
4:28 - 4:31dat artificiële intelligentie
alle problemen zal oplossen, -
4:31 - 4:33zullen het met me eens zijn
dat we veraf staan -
4:33 - 4:36van AI die berichten als deze
kan begrijpen. -
4:37 - 4:39Dus zou ik graag drie
samenhangende problemen uitleggen -
4:39 - 4:42die dit zo complex maken,
-
4:42 - 4:45om dan over manieren na te denken
om ze op te lossen. -
4:45 - 4:49Ten eerste hebben we gewoon
geen rationele relatie met informatie, -
4:49 - 4:51maar een emotionele.
-
4:51 - 4:55Het is niet waar dat meer feiten
alles goed maken, -
4:55 - 4:58want algoritmes
die bepalen wat we zien, -
4:58 - 5:01zijn ontworpen om onze
emotionele reacties te belonen. -
5:01 - 5:02En wanneer we angst hebben,
-
5:02 - 5:05zijn sterk vereenvoudigde verhalen,
verklaringen met complotten -
5:05 - 5:09en demoniserende taal
over anderen veel effectiever. -
5:10 - 5:11Bij veel van deze bedrijven
-
5:11 - 5:14is het businessmodel gelinkt aan aandacht,
-
5:14 - 5:18wat betekent dat deze algoritmes
altijd neigen naar emotie. -
5:18 - 5:23Ten tweede zijn de meeste berichten
die ik hier vernoem legaal. -
5:23 - 5:25Het zou een andere zaak zijn
-
5:25 - 5:27als ik sprak over
beelden van kindermisbruik -
5:27 - 5:29of inhoud die tot geweld aanspoort.
-
5:29 - 5:32Het kan perfect legaal zijn
om een regelrechte leugen te posten. -
5:33 - 5:37Mensen praten over 'problematische'
of 'schadelijke' informatie verwijderen -
5:37 - 5:40zonder duidelijke definitie
van wat ze daarmee bedoelen, -
5:40 - 5:41inclusief Mark Zuckerberg,
-
5:41 - 5:45die net nog opriep tot globale
controle van meningsuiting. -
5:45 - 5:47En mijn zorg is dat we regeringen zien
-
5:47 - 5:48over de hele wereld
-
5:48 - 5:51die haastig een beleid invoeren
-
5:51 - 5:54wat eigenlijk veel ergere
gevolgen kan veroorzaken -
5:54 - 5:56voor onze meningsuiting.
-
5:56 - 6:00En ook al konden we beslissen
welke meningen te houden of verwijderen, -
6:00 - 6:02we hebben nog nooit zoveel geuit.
-
6:02 - 6:04Elke seconde worden miljoenen meningen
-
6:04 - 6:06geüpload door mensen over de hele wereld
-
6:06 - 6:07in verschillende talen,
-
6:07 - 6:10gebaseerd op duizenden
verschillende culturele contexten. -
6:10 - 6:13We hebben simpelweg
nooit efficiënte mechanismes gehad -
6:13 - 6:15om taal te controleren op deze schaal,
-
6:15 - 6:17of het nu van mensen
of van technologie komt. -
6:18 - 6:22Ten derde zijn deze bedrijven --
Google, Twitter, Facebook, WhatsApp -- -
6:22 - 6:25deel van een breder informatie-ecosysteem.
-
6:25 - 6:28We geven hen graag alle schuld,
maar de waarheid is -
6:28 - 6:32dat massamedia en verkozen ambtenaren
een even grote rol kunnen spelen -
6:32 - 6:35in het versterken van gerucht
en complot, als ze dit willen. -
6:36 - 6:41En wij ook, als we hersenloos
verdeelde of misleidende informatie delen -
6:41 - 6:42zonder moeite te doen.
-
6:42 - 6:44We vervuilen het alleen maar meer.
-
6:45 - 6:48Ik weet dat we zoeken
naar een makkelijke oplossing. -
6:48 - 6:50Maar er is er geen.
-
6:50 - 6:54Elke oplossing zal uitgerold moeten worden
op een gigantische schaal, internetschaal. -
6:54 - 6:58En ja, de platformen zijn gewend
op dat niveau te opereren, -
6:58 - 7:01maar kunnen ze deze problemen oplossen
en moeten we het toelaten? -
7:02 - 7:03Proberen doen ze zeker.
-
7:03 - 7:07Maar de meesten zouden ermee akkoord gaan
dat we geen globale ondernemingen willen -
7:07 - 7:09als bewakers van waarheid
en eerlijkheid online. -
7:09 - 7:12En ik denk dat ook
de platformen dat vinden. -
7:12 - 7:15Momenteel beoordelen ze
hun eigen huiswerk. -
7:15 - 7:16Ze vertellen graag
-
7:16 - 7:19dat de maatregelen
die ze nemen resultaat opleveren, -
7:19 - 7:22maar omdat ze hun eigen
transparantieverslag schrijven, -
7:22 - 7:25kunnen we op geen enkele manier
echt controleren wat er eigenlijk gebeurt. -
7:26 - 7:30(Applaus)
-
7:30 - 7:33En laat het ook duidelijk zijn
dat de meeste veranderingen enkel gebeuren -
7:33 - 7:37nadat onderzoek van journalisten
vooroordelen aan het licht brengen, -
7:37 - 7:40of inhoud die de regels
van de platformen breekt. -
7:41 - 7:45Dus ja, deze bedrijven moeten een
heel belangrijke rol spelen in dit proces, -
7:45 - 7:48maar je kunt het ze niet
laten controleren. -
7:48 - 7:49En hoe zit het met regeringen?
-
7:50 - 7:53Velen geloven dat globale wetten
onze laatste hoop zijn -
7:53 - 7:56als het gaat om de opkuis
van ons informatie-ecosysteem. -
7:56 - 7:59Maar ik zie wetgevers
die worstelen om bij te blijven -
7:59 - 8:01met de snel veranderende technologie.
-
8:01 - 8:03Nog erger, ze tasten in het duister,
-
8:03 - 8:05omdat ze geen toegang hebben tot data
-
8:05 - 8:08om te begrijpen wat er gebeurt
op deze platformen. -
8:08 - 8:11Trouwens, welke regeringen
zouden we hiermee vertrouwen? -
8:11 - 8:14We hebben een globaal
antwoord nodig, geen nationaal. -
8:15 - 8:18Dus zijn wij de ontbrekende schakel.
-
8:18 - 8:21Het zijn de mensen die
deze technologie elke dag gebruiken. -
8:21 - 8:26Kunnen we een nieuwe infrastructuur
bouwen om kwaliteitsinformatie te bieden? -
8:26 - 8:28Wel, ik denk van wel,
-
8:28 - 8:31en ik heb enkele ideeën
over wat we echt zouden kunnen doen. -
8:31 - 8:34Ten eerste, als we het grote publiek
er echt bij willen betrekken, -
8:34 - 8:37kunnen we dan inspiratie
opdoen van Wikipedia? -
8:37 - 8:38Zij hebben getoond wat mogelijk is.
-
8:38 - 8:40Het is niet perfect,
-
8:40 - 8:42maar ze hebben getoond
dat met de juiste structuren, -
8:42 - 8:44met een globale aanpak
en heel veel transparantie, -
8:44 - 8:48je iets kan bouwen dat het vertrouwen
zal winnen van de meesten. -
8:48 - 8:50Want we moeten een manier vinden
-
8:50 - 8:53om de collectieve wijsheid en ervaring
van alle gebruikers in te zetten. -
8:54 - 8:56Dit is vooral het geval
voor vrouwen, gekleurde mensen -
8:56 - 8:58en minderheden.
-
8:58 - 8:59Want weet je?
-
8:59 - 9:01Zij zijn experten
in haat en desinformatie, -
9:02 - 9:05omdat zij al zo lang het doelwit
zijn van deze campagnes. -
9:05 - 9:07En door de jaren heen
hebben ze vaak gewaarschuwd, -
9:07 - 9:09maar er werd niet naar geluisterd.
-
9:09 - 9:10Dit moet veranderen.
-
9:11 - 9:15Dus kunnen we een Wikipedia
bouwen van vertrouwen? -
9:15 - 9:19Kunnen we een manier vinden
om gebruikers hun inzicht te laten geven? -
9:19 - 9:23Zij zouden inzicht kunnen bieden
bij moeilijke beslissingen over inhoud. -
9:23 - 9:25Ze zouden feedback kunnen geven
-
9:25 - 9:28wanneer platformen beslissen
om veranderingen door te voeren. -
9:28 - 9:32Ten tweede zijn ervaringen
met informatie gepersonaliseerd. -
9:32 - 9:35Mijn Facebook nieuwsoverzicht
is anders dan het jouwe. -
9:35 - 9:38Jouw YouTube aanbevelingen
zijn anders dan de mijne. -
9:38 - 9:40Dat maakt het onmogelijk
om echt te onderzoeken -
9:40 - 9:42welke informatie mensen te zien krijgen.
-
9:43 - 9:44Dus kunnen we ons inbeelden
-
9:44 - 9:49dat een gecentraliseerd, open geheugen
voor anonieme data ontwikkeld wordt, -
9:49 - 9:52met privacy en ethische bezwaren erin?
-
9:52 - 9:54Want stel je voor wat we zouden leren
-
9:54 - 9:57als we een globaal netwerk
uitbouwden met betrokken burgers -
9:57 - 10:01die hun sociale data
zouden doneren aan de wetenschap. -
10:01 - 10:03Want we weten eigenlijk erg weinig
-
10:03 - 10:06over de gevolgen op lange termijn
van haat en desinformatie -
10:06 - 10:08voor mensen hun houding en gedrag.
-
10:08 - 10:09En wat we wel weten,
-
10:09 - 10:12is dat dit het vaakst gebeurt in de VS,
-
10:12 - 10:14ondanks het feit
dat dit een globaal probleem is. -
10:14 - 10:16Daar moeten we ook aan werken.
-
10:16 - 10:17En ten derde,
-
10:17 - 10:20kunnen we dan geen ketting maken?
-
10:20 - 10:23Niet één sector, laat staan nonprofit,
start-up of regering -
10:23 - 10:25gaat dit oplossen.
-
10:25 - 10:27Maar er zijn erg slimme mensen
over de hele wereld -
10:27 - 10:29die de uitdaging aangaan,
-
10:29 - 10:32bij nieuwsredacties, de burgers,
academici, activisten. -
10:32 - 10:34En sommigen ervan zie je hier.
-
10:34 - 10:37Sommigen bouwen aan indicators
van geloofwaardigheid. -
10:37 - 10:38Anderen checken de feiten,
-
10:38 - 10:42zodat valse beweringen, video's
en afbeeldingen verdwijnen van platformen. -
10:42 - 10:44Een nonprofit die ik
geholpen heb, First Draft, -
10:44 - 10:47werkt met competitieve
nieuwsredacties wereldwijd -
10:47 - 10:51om samen met hen onderzoekende
samenwerkingsprogramma's te bouwen. -
10:51 - 10:54En Danny Hillis, een software architect,
-
10:54 - 10:56ontwerpt een nieuw systeem
genaamd The Underlay, -
10:56 - 10:59wat een geheugen zal zijn
van elke openbare verklaring van feiten, -
10:59 - 11:00verbonden aan hun bronnen,
-
11:00 - 11:04zodat mensen en algoritmes beter
kunnen oordelen over wat geloofwaardig is. -
11:05 - 11:08En opvoeders wereldwijd
testen verschillende technieken -
11:08 - 11:12om mensen kritisch te laten kijken
naar de informatie die ze opnemen. -
11:13 - 11:16Al deze inspanningen zijn fantastisch,
maar ze werken afgezonderd -
11:16 - 11:18en vele krijgen
pijnlijk weinig financiering. -
11:19 - 11:21Er zijn ook honderden erg slimme mensen
-
11:21 - 11:22die in deze bedrijven werken,
-
11:22 - 11:25maar deze inspanningen
kunnen ontwricht voelen, -
11:25 - 11:29omdat ze verschillende oplossingen
ontwikkelen voor dezelfde problemen. -
11:29 - 11:31Hoe zouden we mensen kunnen samenbrengen
-
11:31 - 11:35op één fysieke locatie
voor dagen of weken na elkaar, -
11:35 - 11:37zodat ze deze problemen
samen kunnen aanpakken -
11:37 - 11:39maar vanuit hun eigen perspectieven?
-
11:39 - 11:40Kunnen we dit?
-
11:40 - 11:44Kunnen we een gecoördineerde,
ambitieuze oplossing opzetten -
11:44 - 11:47van dezelfde schaal en complexiteit
als het probleem zelf? -
11:48 - 11:49Ik denk echt dat het kan.
-
11:49 - 11:52Laten we samen onze publieke
bronnen heropbouwen. -
11:53 - 11:54Dankjewel.
-
11:54 - 11:58(Applaus)
- Title:
- Hoe jij kan helpen het internet te transformeren naar een plek van vertrouwen
- Speaker:
- Claire Wardle
- Description:
-
Hoe kunnen we de verspreiding van misleidende, soms gevaarlijke informatie stopzetten, maar ook een internet met vrijheid van meningsuiting als kern behouden? Misinformatie-expert Claire Wardle onderzoekt de nieuwe uitdagingen van onze vervuilde online omgeving en stelt een plan op om het internet te transformeren in een plek van vertrouwen -- met de hulp van dagelijkse gebruikers. "Laten we samen onze publieke bronnen heropbouwen", zegt zij.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Peter van de Ven approved Dutch subtitles for How you can help transform the internet into a place of trust | ||
Peter van de Ven edited Dutch subtitles for How you can help transform the internet into a place of trust | ||
Peter van de Ven edited Dutch subtitles for How you can help transform the internet into a place of trust | ||
Peter van de Ven edited Dutch subtitles for How you can help transform the internet into a place of trust | ||
Kelly accepted Dutch subtitles for How you can help transform the internet into a place of trust | ||
Kelly edited Dutch subtitles for How you can help transform the internet into a place of trust | ||
Rik Delaet declined Dutch subtitles for How you can help transform the internet into a place of trust | ||
Rik Delaet edited Dutch subtitles for How you can help transform the internet into a place of trust |