Ethiek in de IT

Onlangs heeft David een innovation talk gegeven die meer vragen opleverde dan beantwoordde. Zijn innovation talk ging namelijk over “Ethiek in de IT”.

David, doorgaans zien we innovation talks over software of nieuwe updates. Hoe ben jij bij dit onderwerp uitgekomen?
Onlangs heb ik via de universiteit een vak over dit onderwerp afgerond. Dat bracht debatten met zich mee en een hoop denkwerk over de combinatie ethiek en IT.  Dat vond ik heel relevant en leverde veel nieuwe inzichten. Het leek mij goed om dit met elkaar te delen.

Zeker in deze tijd lijkt mij dit voor iedereen leerzaam. Waar heb je je voor de innovation talk vooral in verdiept? 
Mijn doel was dat mensen minstens over ethiek na gingen denken en dat er een discussie zou starten. Er worden vaak dingen “standaard” gebouwd zonder dat we over ethiek nadenken. Maar als je iets tegenkomt in je werk, hoop ik dat je nu ook over de consequenties nadenkt. Dit wilde ik doen door wat voorbeelden te noemen die niet “helemaal duidelijk” zijn. En waar die ethische grens ligt.

En welke voorbeelden zijn dit?
Dit kunnen er meerdere zijn, maar een aantal bekende voorbeelden zijn:

  • Torrent of download websites (denk hierbij aan waar films gedownload worden): aan de ene kant is dit natuurlijk gewoon illegaal, maar aan de andere kant gebruikt bijna iedereen dit wel eens. Ethisch gezien zouden we moeten zeggen dat we hier geen gebruik van maken, maar in de praktijk gebeurt het nog heel veel. Vaak ook omdat er geen goed alternatief is.
  • Social Media: in social media ontstaan er filterbubbels. Een filterbubbel werkt als volgt: stel je bent politiek rechts en uit dit op Facebook. Dan zorgen algoritmen er voor dat je steeds meer in die hoek wordt geleid door je alleen maar bloot te stellen aan posts met dezelfde overtuigingen.

Oké, die algoritmen.. die beïnvloeden ons dus enorm, maar stel nou dat het een keer “fout” gaat? Met bijvoorbeeld gezichtsherkenning of andere privacygevoelige data. Wie geef je dan de schuld?
Omdat de redenering van de machine learning algoritmen niet te achterhalen is, kan je bijna niemand de schuld geven. Een goed voorbeeld hiervan is de zelfrijdende auto. Dit is in Amerika helaas al gebeurd, maar stel er rijdt een zelfrijdende auto iemand dood. Geef je dan de programmeur van de software de schuld? Of het bedrijf dat de auto verkocht? De eigenaar van de auto of misschien wel de auto zelf? Of geef je niemand de schuld en accepteer je het gewoon? Dat voelt niet goed bij de nabestaanden. Maar stel je geeft wel het bedrijf de schuld dat de auto verkocht? Dat is iets wat in de praktijk vaak gedaan wordt. Dan moet je zelfrijdende auto’s gaan reguleren. Regulatie remt dan weer de innovatie. Bedrijven zullen de auto’s minder snel gaan verkopen. Maar zo’n zelfrijdende auto rijdt misschien minder vaak iemand dood dan een menselijke bestuurder. Hoe meer zelfrijdende auto’s er op de weg zijn, hoe veiliger het in het verkeer wordt. In deze casus werd er na onderzoek gezegd dat er met gebruik van zelfrijdende auto’s 300.000 levens (op het gebied van auto ongelukken) per decennium in Amerika kunnen worden gered. Voor het algemene goed is het beter als er veel zelfrijdende auto’s zijn, maar voor “de mens” wordt er wel een verantwoordelijke verwacht wanneer het fout gaat.

Na de innovation talk startte er een discussie over onze eigen projecten. Zijn we ons bewust van bepaalde keuzes en de mogelijke impact? Kunnen we hierin sturen? Maak je wel of niet gebruik van een bepaalde dienst? Interessante vragen die gesteld moeten kunnen worden.