Humans & technology: clashing or matching?

Deh!

Een lelijke stockfoto, het woordje “deh”: ja, inderdaad. De schrijfkriebels zijn er weer. De laatste keer dat ik in mijn virtuele pen gedoken ben is alweer even geleden. De grootste oorzaak? Werk en voetbal. Veel van mijn energie steekt daarin. Maar toch prop ik mijn agenda nog wat voller met een schrijfcursus, waarvan ik zopas de eerste sessie achter de rug heb. Fictief leren schrijven, character building, en toveren met woorden om de zintuigen van de lezers te activeren. Héél uitdagend, way out of my comfort zone, zeker als je gewoon bent om beschrijvend te schrijven. Hoe dan ook zijn het cruciale vaardigheden voor het schrijven van een boek, als dat er ooit gaat komen.

Vandaag begin ik dus met een goesting om te schrijven. En deze keer combineer ik het met de passie voor wetenschap, technologie. Een combinatie die niet voor iedereen even herkenbaar is, maar als full-time onderzoeker vormt het voor mij de basis van alles. Willen weten, willen uitzoeken, die addertjes onder het gras er uit willen halen, de mensen juist willen informeren. Voor de trouwe lezers van mijn blogs: de toon in deze blog ligt bijgevolg heel wat anders.

We all gonna die!

Vaak wordt wel eens gezegd: spreek waarover je iets weet. Voor mij is dat artificiële intelligentie. Daarover wil ik vaak spreken, want ik zie dat de gewone mens niet voldoende geïnformeerd is. Er leven veel verkeerde ideeën, en soms durf ik al eens stellen dat er een afkeer leeft tegen alweer een verandering. In nagenoeg al mijn spreeksessies hamer ik bijgevolg nog eens op die vooroordelen. Robots nemen de wereld over, pakken onze jobs af, en daarna zullen ze ons uitroeien.En ik doe het dus lekker nog eens (#sorrynotsorry).

En hey, dat we zo denken is niet zo onlogisch. Ik merkte onlangs nog een artikel op in The Guardian. Een AI-model (GPT-3) dat uitlegt waarom robots in vrede komen kreeg de titel: are you scared yet, humansOok in de filmindustrie zijn er weinig voorbeelden van vriendelijke robots die bv. met uw hond zullen wandelen of hand in hand met u op straat rondlopen. Nee, integendeel. Robots worden wel eens gescheept in containers om in oorlog te gaan met Will Smith, of worden opgesloten in testkooien waarna ze hun creators emotioneel misleiden om te kunnen ontsnappen. Ok, dat zijn enkele extreme voorbeelden, maar dit gegeven in combinatie met een mediawereld waarin er weinig plaats is voor berichtgeving met focus op positieve, genuanceerde verhalen kan de gewone mens zich alleen met deze voorbeelden een beeld vormen over de technologie. Je moet al een grote optimist zijn om als burger de technologie met open armen te ontvangen, lijkt me.

Verkeerd begrip

Over dat artikel van GPT-3 wil ik trouwens nog het volgende kwijt: super interessant, het laat zien hoe ver we al staan om artificiële intelligentie autonoom teksten, blogs en zelfs programma’s te laten schrijven. Maar helaas wordt er zelden de nuance meegegeven over de gegevens waaruit het systeem geleerd heeft. In het geval van GPT-3: de God-ganse database van Wikipedia. Ok, dan is het perfect mogelijk dat er geleerde teksten met positieve noot uitkomen. Maar ik stel voor om hetzelfde systeem eens te laten bijleren uit twitterberichten of de gemiddelde facebook-comment op HLN: ik kan u verzekeren dat GPT-3 er ineens minder vriendelijk uitziet. Net zoals een kind zich maar zo goed gedraagt naar de opvoeding dat het gekregen heeft, is een AI model net zo goed als de gegevens waaruit het geleerd heeft.

Natuurlijk is er al een slimmerik geweest die een AI-model uit twitterberichten liet leren. Bij deze een bloemlezing uit twitterberichten van TayTweets.

De fout die wij maken, en ik quoteer de woorden van Ruben Mersch uit het boek “Oogklepdenken”, is dat onze innerlijke idioot graag rode draden doortrekt. We zien dit voorbeeld, of meerdere van dezelfde vorm, en we stellen dat ALLE vormen van artificiële intelligentie uitsluitend goed of slecht zijn. In een eerste reactie hebben we geen zin om verder na te denken: dat kost ons tijd en moeite die we liever ergens anders insteken. De realiteit is echter anders. Niet alle moslims zijn extremisten. Niet alle jongeren zijn technologieverslaafd. Niet alle AI-modellen zijn door en door slecht. (Sidenote: het boek beschrijft het denken in verschillende types, waarbij “type 2” het rationele denken is. Wil je meer weten, dan raad ik het zeker aan!).

Hoe moet het dan verder?

Ik ben er alvast van overtuigd dat we technologieën nooit op zichzelf beslissingen zullen laten nemen. Zoiets past niet in ons systeem, want wie stellen we verantwoordelijk als er een fout gebeurd is? Wie is in fout als een Tesla in auto pilot net een zwaar ongeval heeft veroorzaakt? De bestuurder? Het bedrijf Tesla? Elon Musk himself? We zullen er uiteindelijk wel achter komen, maar het is een voorbode van grote onderzoeken waar veel te veel tijd en geld in kruipt. We kunnen het ook anders oplossen. Misschien niet efficiënter, maar toch op zijn minst humaner.

En dan heb ik het over de assisterende rol van technologie. Als mens hebben we graag de controle. Als experts zijn wij het die de beslissingen moet nemen. AI kan daarin assisteren. In plaats van een robot die de job van een dokter overneemt, kunnen we een AI-model zijn voorspellingen en bevindingen visualiseren aan de dokter die onderzoekt of een patiënt ziek is. Er is niets mis met een samenwerking tussen mens en technologie. Want naast de waarheid, staat ook vertrouwen centraal. En minstens even belangrijk is de rol van transparantie, verklaringen en interpreteerbaarheid van AI-modellen.

Stiekem zeg ik dat ook om reclame te maken voor de PXL: ik zit op een project waarin we onderzoek doen naar transparantie van AI modellen.

Trek de lijn maar eens door tot het onderling samenwerken van mensen. Ieder heeft zijn eigen expertise, samen sta je sterker. Samenwerking gaat ook over beargumentering: kunnen uitleggen waarom je denkt dat iets is zoals het is. Je redeneringen transparant maken zodat de ander mee is met de logica en je kan vertrouwen. Laat een AI-model zichzelf dan ook transparant maken en zijn redeneringen voorleggen aan de persoon die uiteindelijk de beslissingen moet nemen.

Over AI zou ik trouwens nog veel kunnen vertellen. Maar ik ga hier niet alles prijsgeven, kom dan maar eens een spreeksessie volgen. Hoe dan ook is deze vorm van informatie overbrengen één van mijn missies. Wetenschap en maatschappij zijn nog steeds twee werelden die elkaar moeilijk begrijpen. We zien daarbij ook de evolutie waarbij een wederzijds correct begrip van groot belang is. Er loopt zo nog veel fout. Enerzijds hebben we “wetenschappelijke twijfel” dat, tegen onze zin ook, vaker grijze antwoorden biedt dan pasklare zwart-wit stellingen. Anderzijds is de wereld soms héél erg complex om te verwerken in één wetenschappelijk onderzoek en is het moeilijk om je als onderzoeker bewust te zijn van belangrijke factoren die een rol kunnen spelen. Het blijft een grote uitdaging om de twee werelden dichter bij elkaar te brengen. Maar goed. Rome werd ook niet op één dag gebouwd, en ik ben blij dat ik op mijn manier toch een steentje kan bijdragen!

Plaats als eerste een reactie

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.