Reportage

July 12, 2024

Eye-openers tijdens Mozilla Festival

De geur van verse koffie en geanimeerde gesprekken vullen de ruimte. Ik ben in de Tolhuistuin in Amsterdam, net over ‘t IJ. Meer dan 500 deelnemers zijn samengekomen voor Mozilla Festival (MozFest), een driedaagse evenement dat technologie, activisme en kunst samenbrengt. De hamvraag: hoe zorgen we dat AI de mensheid vooruithelpt, en geen schade toebrengt?

Met Mark Surman en Mitchell Baker op MozFest

Bij binnenkomst word je meteen ondergedompeld in een verander-atmosfeer. Geen pak te bekennen. Een jonge vrouw met felgekleurd haar en een t-shirt met de tekst 'Code for Good' buigt zich over een laptop. Naast haar zit een man in rolstoel, druk in gesprek met een groepje activisten én Mark Surman, de voorzitter van de Mozilla Foundation is er ook. 

Opening
"We zijn hier om de toekomst van het internet te heroveren", zegt J. Bob Alotta als ze het festival opent. Alotta is uitvoerend directeur en gastvrouw van MozFest. "Van een paar grote techbedrijven naar de mensen en community's", vertelt ze later in een interview.

Mitchell Baker is er ook. De topbestuurder en voormalig CEO van Mozilla speelde een sleutelrol in het ontstaan van Firefox. Baker was in 1994 een van de eerste medewerkers van Netscape, misschien wel de belangrijkste internetstartup van die tijd.

Het Mozilla-project was een strategische zet om te voorkomen dat Microsoft het internet zou monopoliseren. Door de code open source te maken, wilde Netscape de ontwikkeling versnellen én een beweging creëren die groter zou worden dan één enkel bedrijf en die zou bijdragen aan de toekomst van het internet als een open en innovatief platform. In 2019 richtte Mozilla de aandacht op de impact van AI.

"De nalatenschap van Mozilla zijn jullie. MozFest is waar we samenkomen om de wereld te bouwen die we willen." Haar woorden worden begroet met luid gejoel. De energie is voelbaar en bezoekers komen uit alle hoeken van de wereld. Ik ontmoet een jonge developer uit Mexico die enthousiast vertelt over zijn ethische AI-datasets. Een activist uit Londen deelt ervaringen over het bestrijden van online haat.

Cijfers liegen niet
De grote zaal is tot de nok toe gevuld als Mona Chalabi het podium betreedt voor de eerste keynote 'We Are Data'. Chalabi is een Britse datajournalist en illustrator van Iraakse afkomst. Ze is bekend geraakt door haar scherpzinnige en provocerende illustraties van complexe data. Ze maakt deze illustraties voor The Guardian en The New York Times en won vorig jaar een Pulitzer Prize. Juurd Eijsvoogel en Winny de Jong van het NRC spraken met haar over journalistiek.

"Cijfers vertellen niet de hele waarheid”, begint ze. “Het zijn de verhalen achter de data die er echt toe doen. De menselijke ervaringen die verborgen liggen in de cijfers." Chalabi deelt een anekdote over een onderzoek naar Amerikaanse eetgewoonten, waar ze het verhaal ontdekte van een weduwnaar die dagenlang dezelfde kaassandwich at. "Toen ik in deze datasets dook, kon ik niet anders dan de menselijkheid erin vinden... al deze gegevens bestaan uit individuen."

Chalabi's werk is een ode aan die menselijkheid. Ze wijst naar een speelse, bijna kinderlijke tekening van een pinda naast een vrachtwagen vol potten pindakaas. "Dit is hoe ik het vermogen van Jeff Bezos vergelijk met dat van een gemiddeld Amerikaans huishouden. Ik probeer zoveel mogelijk getallen uit mijn grafieken te verwijderen", legt Chalabi uit. "In plaats daarvan gebruik ik visuele aanwijzingen, metaforen en analogieën om de schaal en relaties over te brengen. Als mijn werk geen zin heeft voor iemand zonder achtergrond in data, dan faal ik."

De opkomst van AI baart haar zorgen. "Ik ben zowel gefascineerd als doodsbang voor AI", geeft ze toe. Over ChatGPT: "Ik vroeg of Palestijnen recht hebben op gerechtigheid, en blijkbaar is het een complexe en zeer omstreden kwestie... Dit is voor mij angstaanjagend en totaal niet verrassend. Het weerspiegelt de zeer, zeer lang bestaande, onevenredige berichtgeving die ik in de journalistiek heb gezien over Palestijnse en Israëlische levens. We moeten ons afvragen: wie controleert de algoritmes? Hoe voorkomen we discriminatie?" 

We leven in een tijd waarin de waarheid onder vuur ligt.

AI in Gaza en Oekraïne
Dan de meest aangrijpende sessie. 'We Are Life: AI Accountability During War'. Het brengt schrijnende verhalen aan het licht over het gebruik van AI in conflictgebieden.

Het is stil als Olga Tokaruk de situatie in Oekraïne schetst. "Sinds de Russische invasie in 2022 is Oekraïne een soort laboratorium geworden voor AI in oorlogsvoering", begint ze. "We zien een explosieve groei in het gebruik van AI-gestuurde drones. Er zijn nu ongeveer 200 Oekraïense bedrijven die drones produceren. Tegen het einde van dit jaar willen ze er samen een miljoen produceren." 

Tokaruk is onafhankelijk journalist in Oekraïne, en was ‘fellow’ bij het Reuters Institute for the Study of Journalism in Oxford, waar ze onderzoek deed naar desinformatie en de impact ervan op democratische samenlevingen. Ze beschrijft hoe AI niet alleen op het slagveld wordt ingezet, maar ook online. "Rusland gebruikt deepfakes om desinformatie te verspreiden. En wij gebruiken weer een andere AI om die te ontmaskeren. Het is een constante wapenwedloop en het maakt oorlog afstandelijker, klinischer. En wat als de AI een fout maakt?”

Het algoritme van vernietiging
Dan neemt Marwa Fatafta het woord. Haar stem trilt als ze spreekt over de situatie in Gaza. Als Palestijnse mensenrechtenactivist en MENA Policy and Advocacy Director bij Access Now brengt ze een perspectief dat velen nog nooit eerder hebben gehoord. "In Gaza wordt AI gebruikt als een wapen van massavernietiging", begint ze. "Het Israëlische leger heeft AI-systemen zoals 'Lavender' en 'Gospel' ontwikkeld om bombardementsdoelen te selecteren.” 

Ze legt uit: “'Lavender' bepaalt op basis van onduidelijke datapatronen wie een potentieel Hamas-lid is. 'Gospel' genereert vervolgens de bombardementsdoelen. Ze houden geen rekening met de chaos van oorlog, met families die samenkruipen in overvolle huizen, die constant van locatie wisselen vanwege de verwoesting. De AI ziet patronen die er niet zijn, en onschuldige burgers betalen de prijs."

Fatafta's stem breekt even als ze vertelt over een ander AI-systeem, cynisch 'Where's Daddy' genoemd. Dit systeem volgt de door Lavender geïdentificeerde individuen en geeft het leger een seintje wanneer ze zich in hun huis bevinden, zodat ze precies op dat moment kunnen worden gebombardeerd, samen met hun familie. Dit alles gebeurt met een hoge tolerantie voor burgerslachtoffers. Volgens The Guardian en +972 Magazine, stond het leger toe dat voor elke gedode Hamas-strijder tot wel 20 burgerslachtoffers vielen.

We kunnen niet over AI-ethiek praten zonder het over de hele keten te hebben.

Congolese kobaltmijnen
Kambale Musavuli is een vooraanstaande stem in de Congolese politiek en een pleitbezorger voor sociale rechtvaardigheid en vrede in de regio. Hij begint met een simpele vraag: "Weten jullie waar de grondstoffen voor jullie smartphones vandaan komen?"

Musavuli neemt het publiek mee naar de kobaltmijnen van Congo. Hij beschrijft hoe kinderen met blote handen graven naar het 'blauwe goud' dat onze apparaten van stroom voorziet. "Elke AI-server, elke drone, elke smartphone is gebouwd op het fundament van menselijk leed", zegt hij. "We kunnen niet over AI-ethiek praten zonder het over de hele keten te hebben."

Hij trekt de lijn door van de koloniale geschiedenis naar het heden. "In de Eerste en Tweede Wereldoorlog was het rubber en uranium. Nu is het kobalt. Het systeem van uitbuiting blijft hetzelfde."

"Maar wat kunnen wij hieraan doen?" vraagt iemand uit het publiek, hoorbaar gefrusteerd. Musavuli: "We moeten de hele keten onder de loep nemen. En, we hebben niet steeds ‘het nieuwste’ nodig, bewuster consumeren is ook een vorm van activisme."

De dreiging van desinformatie
Later op de dag verschuift de aandacht naar desinformatie, de grote zaal vult zich opnieuw. Moderator Nicholas Piachaud neemt het woord. "We leven in een tijd waarin de waarheid onder vuur ligt. Desinformatie beïnvloedt onze verkiezingen en ons dagelijks leven." 

Als lid van Meta's public policy team werkt Tara Fishbach aan het beleid van platform rond maatschappelijke kwesties, waaronder de aanpak van desinformatie. Meta ligt vaak onder vuur omdat het onvoldoende actie zou ondernemen tegen de verspreiding van misleidende informatie op zijn platforms. 

"Wat we zien is zorgwekkend. Desinformatiecampagnes beginnen nu al meer dan een jaar voor de verkiezingen. Ze polariseren de samenleving lang voordat er een stem is uitgebracht." 

Fishbach legt vervolgens Meta's strategie uit: "We blijven 'always on', investeren in technologie en teams, verhogen de transparantie, zorgen voor effectieve factchecking en proberen misbruik te voorkomen." Maar niet iedereen is overtuigd. Emre Kazim, oprichter van Holistic AI, een platform dat bedrijven helpt om AI verantwoord te implementeren, werpt een kritische blik. "We moeten voorzichtig zijn met het geven van te veel macht aan centrale autoriteiten om sociale en politieke discussies te controleren", waarschuwt hij.

Verantwoordelijkheid van techbedrijven en journalisten
De discussie over AI en journalistiek brengt nieuwe dilemma's aan het licht. Julia Angwin, oprichter van Proof News en Pulitzer-genomineerde onderzoeksjournalist, waarschuwt: "We worden zo vaak meegesleept door de glans van nieuwe technologie dat we vergeten naar de mensen erachter te kijken."

Angwin deelt een succes van Proof News: het ontmaskeren van fouten in AI-modellen bij het beantwoorden van kiezersvragen. "Dit leidde wel tot directe verbeteringen", zegt ze, "maar het roept ook vragen op over de verantwoordelijkheid van techbedrijven. Hoe kunnen we ze ter verantwoording roepen zonder de innovatie te smoren?"

Naast haar zit Itika Sharma, deputy editor van Rest of World, een publicatie die zich richt op technologieverhalen buiten het Westen. "We hebben de neiging om AI als een Westers fenomeen te zien, maar de impact is wereldwijd. Hoe zorgen we ervoor dat AI-ontwikkeling en -implementatie rekening houden met lokale contexten en behoeften?"

Een prangende kwestie komt aan bod: hoe kunnen journalisten de complexiteit van AI vertalen naar begrijpelijke verhalen? "We moeten de balans vinden tussen technische accuraatheid en toegankelijkheid", merkt een panellid op. "Te veel jargon en we verliezen ons publiek, te weinig diepgang en we doen het onderwerp tekort." 

Angwin sluit af: "Wij zijn de waakhonden van de macht en de stem van het publiek. In het AI-tijdperk is deze rol belangrijker dan ooit".

Muziek
Als de avond valt, verandert de sfeer. De Amerikaanse muzikant Toshi Reagon neemt het podium over met 'Songs of the Living'. Het publiek wordt uitgenodigd om mee te zingen in dit communitykoor. Het moet ons herinneren aan onze menselijke stem. "Dit is waar het om draait", fluistert een deelnemer. "Technologie moet ons verbinden, niet verdelen."

Deel dit artikel

Meer weten?

Lennart Schoemaker

PR Strateeg

Nieuwsgierig naar hoe wij jou kunnen helpen? Stuur een bericht en we nemen z.s.m. contact met je op.

Stuur een bericht →

Meld je aan voor de LDJ Techwatch

Ontvang maandelijks techupdates die relevant zijn voor jouw bedrijfsgroei.
Aangemeld!
Oops! Something went wrong while submitting the form.

Meld je aan bij LDJ Techwatch

Ontvang updates over techontwikkelingen die relevant zijn voor jouw bedrijfsgroei. Word vandaag nog onderdeel van de community.

Bedankt. Je bent aangemeld!
Oeps, er gaat iets mis.
Cookie-instellingen

Uw privacy is voor ons van groot belang, daarom kunt u ervoor kiezen om bepaalde opslagtypes die niet essentieel zijn voor de werking van de website uit te schakelen. Het blokkeren van deze categorieën kan invloed hebben op uw gebruikservaring op onze site. Meer informatie

Alle cookies accepteren

Deze onderdelen zijn nodig om de website naar behoren te laten functioneren.

Altijd actief

Deze cookies worden ingezet om advertenties aan te bieden die beter aansluiten op uw interesses.

Met deze cookies kan de website keuzes die u maakt (zoals uw gebruikersnaam, taal of de regio waar u zich bevindt) onthouden en zo verbeterde en persoonlijkere functies bieden.

Deze gegevens helpen de beheerder van de website om te begrijpen hoe de website presteert, hoe bezoekers ermee omgaan en of er mogelijk technische problemen zijn.

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.