Onlangs schreef ik voor een vak van de Master Privacyrecht aan de OU een artikel over ghostbots, ofwel chatbots die gebaseerd zijn op persoonsgegevens van overledenen. In plaats van het artikel te verplaatsen naar /dev/null (de digitale oud-papierbak) leek het me een goed idee om het hier te plaatsen voor geïnteresseerden. Het artikel is niet heel praktisch van aard, maar meer iets voor reflectie op een regenachtige zondagmiddag.

Het volledige artikel is hier te downloaden:

Rusten in vrede of voortleven als digitale geest?

De bescherming van post-mortem persoonsgegevens tegen het ongewenst gebruik als trainingsdata voor deathbots

In 1950 stelde wiskundige en informaticus avant la lettre Alan Turing een gedachte-experiment voor op het gebied van Arti%icial Intelligence (AI) om te bepalen of een machine menselijk gedrag kan vertonen. In dit gedachte-experiment moest een menselijke ondervrager aan de hand van een uitwisseling van getypte berichten bepalen of zich in een andere kamer een mens of een machine bevond. 1 In 2023 voerden Mei e.a. deze zogenaamde Turingtest daadwerkelijk uit met ChatGPT-3 en ChatGPT-4, destijds de meest geavanceerde AI-systemen. 2 De test was gebaseerd op klassieke gedragsexperimenten, waardoor niet slechts taalvaardigheid werd getoetst, maar ook menselijke gedrags- en persoonlijkheidseigenschappen, zoals vertrouwen, eerlijkheid en samenwerking. 3 Het bleek dat ondervragers statistisch gezien geen onderscheid konden maken tussen mens en machine. 4

Hedendaagse AI-systemen kunnen zelfs een speci%iek persoon simuleren wanneer ze getraind zijn op persoonsgegevens van de betreffende persoon, zoals foto’s, e-mails, audio-opnames of persoonlijke notities. 5 Door de opkomst van platformen als Replika, You Only Virtual, Almaya, Project December, HereAfter en Sé ance AI is geen technische kennis meer vereist om een persoon met behulp van AI te simuleren. 6 De drie laatstgenoemde platformen richten zich nadrukkelijk op het maken van chatbots die overledenen simuleren, zogenaamde deathbots.

In Nederland wordt het recht op informationele privacy hoofdzakelijk gereguleerd door de Algemene Verordening Gegevensbescherming (AVG). 7 Informationele privacy houdt in dat een persoon zelf controle heeft over wie in welke mate toegang heeft, of toegang kan krijgen, tot zijn persoonsgegevens. 8 Hierdoor zijn Nederlanders grotendeels beschermd tegen het ongewenst gebruik van persoonsgegevens voor het maken van gepersonaliseerde chatbots. 9 Overweging 27 van de AVG stelt echter dat de AVG niet van toepassing is op persoonsgegevens van overledenen en dat lidstaten hiervoor zelf regels kunnen vaststellen. Sommige lidstaten, zoals Bulgarije en Spanje, maken gebruik van deze mogelijkheid, maar Nederland kent dergelijke wetgeving niet. Hierdoor kan eenieder zonder geldige grondslag in de zin van de AVG gebruik maken van postmortem persoonsgegevens om een gepersonaliseerde chatbot te maken, mits er geen beperkingen volgen uit andere wetten zoals de Auteurswet, Wet op de naburige rechten of Boek 6 van het Burgerlijk Wetboek. 10

Dit leidt tot de volgende onderzoeksvraag:

Is het gebruik van post-mortem persoonsgegevens als trainingsdata voor deathbots moreel aanvaardbaar, indien de persoon hiervoor ante-mortem geen toestemming gegeven heeft?

Als onderzoeksmethode is kwalitatief literatuuronderzoek gehanteerd. De bronnen zijn geselecteerd door te zoeken naar literatuur in technische en juridische literatuurdatabases met de zoektermen “post-mortem privacy”, “grieftech” en “deathbot” met een publicatiejaar vanaf 2010 tot en met 2025. Vervolgens is snowballing toegepast. 11 Scanlons contractualisme is gekozen als ethische denkwijze, aangezien deze denkwijze met name geschikt is voor het gestructureerd redeneren over alledaagse ethische vraagstukken die betrekking hebben op interpersoonlijke relaties, zoals privacyvraagstukken.

Voetnoten

1
Turing 1950, p. 433.

2
Mei e.a. 2024, p. 2.

3
Een voorbeeld van een experiment in dit onderzoek was het prisoner’s dilemma. Het prisoner’s dilemma is een experiment uit de speltheorie waarbij twee individuen de keuze hebben om samen te werken voor het behalen van gezamenlijk belang of om hun partner te verraden voor het behalen van individueel voordeel.

4
Mei 2024, p. 4.

5
Dit essay hanteert de term ‘trainen’ in een brede betekenis, te weten elke vorm van gebruik van persoonsgegevens door een chatbot om een persoon te simuleren. Vanuit technisch perspectief betekent de term ‘trainen’ alleen het aanpassen van gewichten/parameters van een machine learning-model. In de praktijk zullen gepersonaliseerde chatbots doorgaans gebruik maken van Retrieval Augmented Generation (RAG) en zullen gewichten van het machine learning-model niet voor elke overledene verschillend zijn. Het exacte onderscheid tussen deze technieken is voor de ethische discussie niet relevant.

6
https://replika.com
https://www.myyov.com
https://almaya.webUlow.io
https://projectdecember.net
https://www.hereafter.ai
https://www.seanceai.com

7
In speciUieke contexten gelden soms andere wetten op het gebied van privacy, zoals de Wet politiegegevens (Wpg) en de Wet justitië le en strafvorderlijke gegevens (Wjsg) in een strafrechtelijke omgeving en de Wet op de inlichtingen- en veiligheidsdiensten (Wiv) in situaties die betrekking hebben op de nationale veiligheid.

8
Roessler 2018, p. 11-12.
Roessler 2017, p. 191-192.

9
De AVG kent zes verschillende grondslagen voor het gebruik van persoonsgegevens. Het is zeer onwaarschijnlijk dat persoonsgegevens van levende personen gebruikt kunnen worden voor het personaliseren van chatbots op basis van de grondslagen ‘voldoen aan wettelijke verplichting’ (artikel 6c), ‘vitale belangen’ (artikel 6d) of ‘noodzakelijk vervulling taak algemeen belang’ (artikel 6e). Wanneer de grondslag ‘gerechtvaardigd belang’ (artikel 6f) gebruikt wordt, dan dient de verwerkingsverantwoordelijke te toetsen of de belangen, grondrechten of fundamentele vrijheden van de betrokkene niet zwaarder wegen dan zijn eigen belangen. Hierdoor komt ook deze grondslag niet snel in aanmerking. De grondslag zal dus ‘toestemming’ (artikel 6a) of ‘noodzakelijk voor overeenkomst’ (artikel 6b) moeten zijn. In beide gevallen kan de betrokkene zelf invloed uitoefenen op het gebruik van zijn persoonsgegevens en het gebruik ervan verhinderen.

10
Ten tijde van schrijven vindt er een internetconsultatie plaats voor een wetsvoorstel dat een naburig recht met betrekking tot deepfakes introduceert. Op grond van dit recht kan ieder natuurlijk persoon het vervaardigen, gebruiken en verspreiden van deepfakes van zijn stem of uiterlijk verbieden of toestaan. Dit recht is overdraagbaar en gaat over bij erfopvolging. In het voorstel vervalt het naburige recht 70 jaar na het overlijden van de natuurlijke persoon op wie de deepfake betrekking heeft. Een deepfake is in het voorstel gedefinieerd als een door AI gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal dat een gelijkenis vertoont met een bestaand of overleden natuurlijk persoon en door een persoon ten onrechte voor authentiek of waarheidsgetrouw kan worden aangezien. Het voorgestelde naburig recht zou het onmogelijk maken zonder toestemming een deathbot te maken die stem en uiterlijk simuleert. Het recht legt echter geen beperkingen op aan het gebruik van andere persoonsgegevens dan beeld-, audio- of videomateriaal, zodat voor een deathbot die alleen interacteert op basis van chatberichten nog steeds geen toestemming nodig zou zijn.

11
Snowballing is een iteratieve aanpak voor het vinden van relevante literatuur. In deze aanpak wordt nieuwe literatuur gevonden door te analyseren welke bronnen in reeds bekende literatuur geciteerd worden alsmede in welke bronnen reeds bekende literatuur geciteerd wordt. Deze stap wordt herhaald totdat de onderzoeker steeds op dezelfde bronnen uitkomt, wat een indicatie is dat hij een redelijk compleet beeld heeft over de literatuur aangaande een bepaald vraagstuk.

De rest van het artikel is hier te downloaden: