Opinie: Corona-app moet zélf morele afweging maken

Corona-app.

De tracking-app tegen corona komt eraan. Houden we wel rekening met de mensen die er nadeel van ondervinden?

Er was veel kritiek op de appathon die het Ministerie van Volksgezondheid, Welzijn en Sport in april hield om slimme technologieën in te zetten tegen verspreiding van het coronavirus. Volgens experts waren de resultaten onbevredigend en voldeed geen van de ingebrachte apps aan de gestelde privacyrichtlijnen. Ethisch onverantwoord, luidde het eindoordeel.

Toch zit de echte kritiek wat mij betreft niet in de appathon zelf, maar in de wijze waarop we ethiek in praktijk proberen te brengen. Volgens ethische richtlijnen van de Europese Commissie moeten de kwaliteit en integriteit van de gebruikte gegevens gewaarborgd worden om privacyschade te voorkomen. Klinkt goed, maar wat over het hoofd gezien wordt is dat het bij de ontwikkeling van kunstmatige intelligentie om statistiek draait. De richtlijnen zeggen niets over de wijze waarop waarden als privacy daadwerkelijk meetbaar gemaakt kunnen worden.

Het gaat om eerlijkheid

Slimme systemen moeten in staat zijn zelfstandige patronen uit grote hoeveelheden data te halen en daarvan te leren. Behalve dat hierbij persoonsgegevens op straat kunnen komen te liggen, kan het systeem bepaalde groepen gebruikers onbedoeld benadelen door verkeerde interpretaties van deze data.

Het gaat in dat opzicht eigenlijk niet zozeer over privacy, maar over eerlijkheid. En de vraag is wat in dit geval eerlijk is vanuit een statistisch oogpunt. Willen we geen coronagevallen over het hoofd zien (geen ‘fout-negatieven’), of willen we geen mensen onterecht in quarantaine zetten (geen ‘fout-positieven’)?

Witte pakken

Stel je voor: je besluit in goed vertrouwen gebruik te maken van de nieuwe CoronaMelder van de overheid. Op een dag staan er ineens vier ambtenaren in witte pakken voor je deur. Je wordt vriendelijk, maar toch vooral dringend verzocht de komende veertien dagen binnen te blijven. Een voedselpakket en een succeswens zijn het enige wat je krijgt. Je hebt echter helemaal geen klachten. Door het keukenraam zie je dat je buren dezelfde behandeling krijgen. Achteraf blijkt dat dit door je postcode komt; mensen in jouw postcodegebied hebben een hogere kans op besmetting.

We moeten ons afvragen wat ‘eerlijk genoeg’ is. Welk percentage onnodige quarantainegevallen kunnen en willen we accepteren? Als we de ethische richtlijnen niet kwantificeren, moet een programmeur volgens de huidige benadering zélf een keuze maken.

Gevangenisstraf

Wat we onder eerlijkheid verstaan, is daarnaast afhankelijk van de context. Een aantal maanden geleden konden we het ons helemaal niet voorstellen dat er mensen in quarantaine geplaatst zouden moeten worden. En we oordelen waarschijnlijk anders als het over een onterechte gevangenisstraf gaat, in plaats van een relatief luxe quarantaine in eigen huis. Universele waarden zijn niet zo veranderlijk, maar onze normen wel. Dat maakt het niet alleen lastig, maar ook onverantwoord om principes en richtlijnen in kunstmatige intelligentie-systemen te programmeren.

Context bepaalt gedrag

Uiteindelijk moet het systeem zélf in staat kunnen zijn om morele afwegingen te maken. Dat klinkt eng, maar zonder een moreel intuïtief systeem is het bijna onmogelijk om kunstmatige intelligentie op een ethisch verantwoorde manier toe te passen. Mensen kunnen met regels omgaan omdat we ze in de context kunnen vertalen naar gedrag.

We moeten momenteel anderhalve meter afstand houden van elkaar. Maar als iemand zijn evenwicht verliest en van de trap dreigt te vallen, is het toch wenselijk dat ik die persoon opvang als ik daartoe in staat ben. In verschillende omstandigheden maken we verschillende afwegingen, steeds afgestemd op de omgeving.

We moeten daarom minder energie steken in het opstellen van ethische richtlijnen en ons meer bezighouden met het bouwen van systemen die in de context ethisch verantwoorde beslissingen kunnen nemen. Ethiek is bij uitstek een ontwerpvraagstuk. Naast programmeurs en ethici, moeten er sociologen, psychologen, biologen en economen meewerken. Lukt dat niet? Dan moeten we wellicht in de toekomst geen kunstmatige intelligentie meer willen inzetten. Of accepteren dat onze ethiek onethisch is.

Rudy van Belkom is onderzoeker, verbonden aan Stichting Toekomstbeeld der Techniek.

menu