Over artificial intelligence, hostingexcepties, aansprakelijkheid en porno
Inleiding
Onlangs is een interessante uitspraak gedaan in een hoger beroep bij het Gerechtshof Amsterdam (ECLI:NL:GHAMS:2024:1572). Hoewel deze uitspraak voor het internetrecht in meerdere opzichten interessant is zal deze bijdrage zich richten op de betekenis van deze uitspraak voor de verantwoordelijkheden van hostingproviders voor de middels hun platforms aangeboden online content.
Voor wat dit aspect betreft concentreert de zaak zich rondom de regels voor verantwoordelijkheden en aansprakelijkheden voor (kort gezegd) hostingproviders. Deze regels kennen een Europese oorsprong en zijn thans te vinden in de Digitaledienstenverordening (ook wel bekend als de Digital Services Act: Verordening 2022/2265/EU, hierna: de “DSA”). Voor zover hier van belang bepaalt artikel 6 lid 1 van de DSA:
Wanneer een dienst van de informatiemaatschappij bestaat in de opslag van de door een afnemer van de dienst verstrekte informatie, is de dienstaanbieder niet aansprakelijk voor de op verzoek van de afnemer van de dienst opgeslagen informatie, op voorwaarde dat de dienstaanbieder:
- a) niet daadwerkelijk kennis heeft van de illegale activiteit of illegale inhoud en, wanneer het een vordering tot schadevergoeding betreft, geen kennis heeft van feiten of omstandigheden waaruit de illegale activiteit of de illegale inhoud duidelijk blijkt; of
- b) zodra hij dergelijke kennis of dergelijk besef krijgt, prompt handelt om de illegale inhoud te verwijderen of de toegang daartoe onmogelijk te maken.
Artikel 6 lid 4 DSA bepaalt dat het in artikel 6 DSA bepaalde geen afbreuk doet aan de mogelijkheid voor rechters en andere autoriteiten om in overeenstemming met het nationaal recht van een lidstaat te eisen dat een dienstaanbieder een inbreuk beëindigt of voorkomt (ook ten aanzien van content waarvoor hij niet aansprakelijk is).
Op grond van deze regels is een hostingprovider die enkel passief hostingdiensten aanbiedt in beginsel niet aansprakelijk voor enige via zijn diensten aangeboden illegale content, mist hij deze content en de illegale inhoud dus niet kende. Deze mogelijkheid om aan aansprakelijkheid voor illegale content te ontkomen wordt de ‘hostingexceptie’ genoemd. Een voorwaarde is wel dat de hostingprovider, zodra hij op de hoogte geraakt van illegale content deze content prompt verwijdert of ontoegankelijk maakt (doet hij dit dan alsnog niet, dan zal hij aansprakelijk worden voor de content). Dit laatste zal vaak gebeuren doordat iemands wiens rechten geschonden worden door bepaalde content de hostingprovider hier op wijst. Daarom wordt dit systeem ook wel het ‘notice & takedown’ stelsel genoemd.
Tenslotte is het niet de bedoeling dat hostingproviders algemene verplichtingen opgelegd krijgen om actief toezicht te houden op alle verwerkte gegevens om in het algemeen onrechtmatige content van welke aard dan ook te filteren c.q. te weren. Dit wordt een schier onmogelijke taak geacht. Dit zogenaamde verbod op een algemeen filtergebod of ‘monitoring verbod’ staat in artikel 8 DSA. Belangrijk om in ogenschouw te nemen is dat deze bepaling geen algemeen monitoringverbod in het leven roept, maar een verbod tot het opleggen van algemene monitorverplichtingen.
De zaak in kwestie
Deze zaak begon met een uitspraak van de Rechtbank Amsterdam (ECLI:NL:RBAMS:2023:2192), waarin een stichting (hierna: de “Stichting”) die zich (o.a.) inzet tegen online kindermisbruik een procedure is gestart tegen de exploitant (hierna: “Hammy Media”) van een adult website (in normale taal: een pornosite). De Stichting was van mening dat er op de website videomateriaal te vinden was van heimelijk gefilmde personen die daarin naakt te zien waren, al dan niet terwijl zij seksuele handelingen aan het verrichten waren. De gefilmde personen hadden hiervoor nimmer hun toestemming gegeven, althans Hammy Media kon niet in alle gevallen bewijzen over deze toestemming te beschikken. De Stichting betoogde dat Hammy Media in deze gevallen onrechtmatig handelde wegens o.a. strijd met de privacyrechten van de betrokkenen onder de AVG en dat Hammy Media deze content diende te verwijderen en verwijderd te houden van haar websites. Hammy Media voerde aan dat zij een zero-tolerance beleid voert ten aanzien van illegale content en dat zij een adequaat notice & takedown beleid voert. Daarbij komt dat Hammy Media sinds medio oktober 2021 alle te uploaden content vooraf controleerde met een team van zogenaamde ‘moderators’ (28 natuurlijke personen). Daarbij wordt onder ander gecontroleerd of de vereiste toestemming er is. Hammy Media voldeed naar haar mening met haar notice & takedown beleid en overige controles aan de regelgeving. De Stichting echter meent dat dit niet voldoende is en vordert dat Hammy Media wordt veroordeeld openbaarmaking en verspreiding van alle illegale content per direct te staken, dit op straffe van een dwangsom voor iedere video met illegale content die toch gepubliceerd wordt, te vermeerderen met verdere dwangsommen in geval van sommaties van de Stichting.
De Rechtbank Amsterdam stelt ten eerste vast dat Hammy Media, gezien haar actieve rol bij het aanbieden van de content (controles vooraf) geen beroep toekomt op de hostingexceptie. Op grond van vaste Europese rechtspraak is hier namelijk voor vereist dat de diensten een louter technisch, automatisch en passief karakter hebben en dat de aanbieder van de dienst noch kennis noch controle heeft over de betreffende informatie. De Rechtbank stelt vervolgens de Stichting in het gelijk en wijst haar vorderingen toe. Gek genoeg doet de Rechtbank dit door te bepalen dat Hammy Media alle illegale content dient te verwijderen, maar alleen dwangsommen verschuldigd wordt na sommatie door de Stichting bepaalde video’s te verwijderen: alsnog een notice & takedown systeem dus.
Hammy Media is het niet eens met deze beslissing en gaat in hoger beroep bij het Gerechtshof Amsterdam (ECLI:NL:GHAMS:2024:1572). Het interessante zit het dan niet in de uitkomst van het hoger beroep van Hammy Media (dat wordt afgewezen) maar in de beslissing op het incidentele hoger beroep van de Stichting. In hoger beroep heeft de Stichting namelijk betoogd dat het niet haar insteek is van de procedure om bij voortduring sommaties naar Hammy Media te sturen om de aangeboden content legaal te houden: het ontbeert de Stichting aan capaciteit daartoe (zo betrof het ongeveer één miljoen video’s die geupload waren vóór oktober 2021 en dus voordat de inhoud vooraf gecontroleerd werd) en op Hammy Media rust de rechtsplicht steeds zelfstandig te onderzoeken of de vereiste toestemming aanwezig is en de content van de video’s in dat opzicht dus legaal is. Het Gerechtshof stelt de Stichting voor wat dit betreft in het gelijk en bepaalt dat Hammy Media illegale content dient te verwijderen en dat er dwangsommen verschuldigd worden indien dit niet binnen de door het Gerechtshof gestelde termijnen gebeurt, ook als de Stichting géén sommaties heeft gestuurd.
Juridische analyse
Veel van de Europese rechtspraak waarin filter of monitoringverplichtingen aan bod komen zijn – op verklaarbare wijze – intellectuele eigendomszaken geweest. Dit was het geval in uitspraken waarin werd bepaald dat het verbod op algemene monitorverplichtingen aldus moet worden uitgelegd dat zij eraan in de weg staat dat een hostingdienstverlener door een nationale rechter wordt gelast een filtersysteem te installeren: (i) voor de informatie die de gebruikers van zijn diensten op zijn servers opslaan, (ii) dat zonder onderscheid op al die gebruikers wordt toegepast, (iii) dat preventief werkt, (iv) dat uitsluitend door hem wordt bekostigd, en (v) dat geen beperking in de tijd kent, waarmee content waarvan een partij stelt bepaalde intellectuele-eigendomsrechten te bezitten, kunnen worden geïdentificeerd, zodat kan worden voorkomen dat die content ter beschikking van het publiek worden gesteld en aldus deze intellectuele eigendomsrechten worden geschonden (HvJEU 16 februari 2012, C-360/10 (SABAM v Netlog); HvJEU 24 november 2011, C-20/10 (Scarlet v SABAM). Dit kleurt de mogelijke filtersystemen, omdat die vergelijkingen zullen moeten maken tussen de creatieve vruchten van makers. Het kleurt ook de belangen van betrokken partijen, die veelal louter economisch van aard zullen zijn. Schending van intellectuele eigendomsrechten is echter slechts één vorm van onrechtmatigheid die online content met zich mee kan dragen. Onrechtmatigheid kan hem bijvoorbeeld ook zitten in schending van persoonlijkheidsrechten, zoals in het geval van Hammy Media, of in het feit dat de inhoud van de content strafbaar is, zoals bij het aanzetten tot haat of oproepen tot geweld.
Een uitspraak uit Europa waarin een filterverplichting wel geoorloofd werd geacht is HvJEU 3 oktober 2019, C-18/18 (Eva Glawischnig-Piesczek v Facebook). Het ging hier niet om intellectuele eigendomsrechten, maar om online verspreide smaad en laster. In deze uitspraak en de bijbehorende conclusie van advocaat-generaal Szpunar werd overwogen dat uit (thans) artikel 6 lid 4 DSA volgt dat een hostingprovider ertoe kan worden verplicht een specifieke inbreuk te voorkomen en in specifieke gevallen dus wel degelijk een monitoringverplichting opgelegd kan worden. Een dergelijke monitorverplichting kan opgelegd worden om in een specifiek geval te voorkomen dat identieke inbreuken online openbaar worden gemaakt of verspreid, maar ook soortgelijke inbreuken. Ten aanzien van soortgelijke inbreuken is daarbij bepaald dat deze niet van dien aard mogen zijn dat de betrokken hostingprovider verplicht is die inbreuk inhoudelijk autonoom te beoordelen. Van dit laatste is in de uitspraak niet geheel duidelijk of hiermee wordt gedoeld op (a) een beoordeling die autonoom is in die zin dat de hostingprovider niet zelf de inhoud van bepaalde content nog een keer zal moeten toetsen aan bepaalde (on)rechtmatigheidscriteria of (b) een beoordeling waarbij de hostingprovider zich niet volledig en enkel kan verlaten op geautomatiseerde technieken en onderzoeksmethoden zoals algoritmen en andere vormen van artificial intelligence (waarnaar bijvoorbeeld verwezen in rechtsoverweging 46) maar ook ‘menselijk maatwerk’ zal moeten inzetten.
In een eerdere Nederlandse uitspraak van de Rechtbank Den Haag (Rechtbank Den Haag 4 oktober 2022, (Gemeente Bodegraven v Twitter), ECLI:NL:RBDHA:2022:10082) lijkt geoordeeld te worden dat het gaat om de hierboven genoemde ‘categorie (b)’ (rechtsoverweging 4.13).
In de uitspraak van het Gerechtshof Amsterdam in de zaak van Hammy Media echter lijkt er voor het opleggen van een filterverplichting in het geheel geen beletsel te liggen in het feit dat Hammy Media haar content (kennelijk nagenoeg) enkel controleert met een team van 28 mensen (dat lijkt weinig voor miljoenen video’s).
Wellicht dat het antwoord op de vraag hier zit in de niet expliciet uitgesproken visie van het Gerechtshof Amsterdam op de rechtsinbreuken die Hammy Media dient op te sporen: zijn dit identieke inbreuken (het betreft immers steeds het ontbreken van toestemming) of zijn dit soortgelijke inbreuken (het betreft hier immers steeds andere personen en andere video’s/content)?
Wat hier tenslotte kennelijk wel van belang is geweest voor het Gerechtshof Amsterdam is de aard van de inbreuken: inbreuken op de AVG die, gezien de content, samengaan met aantastingen van persoonlijkheidsrechten en de meest fundamentele aspecten van de persoonlijke levenssfeer. Hammy Media had zich in de procedure voor het Gerechtshof namelijk beroepen op de Good-Samaritan-paradox: zij bepleitte dat zij slechter af is door controle uit te voeren op het aangeboden beeldmateriaal. Vanwege die controle, waarmee zij openbaarmaking van illegale content voorkomt, heeft zij geen beroep op de hostingexceptie terwijl zij dat wel zou hebben als zij niet zou controleren, en illegale content zou openbaarmaken, aldus Hammy Media. Het Gerechtshof maakt hier – nogal – korte metten mee door overduidelijk de aard van de betrokken rechten en af te wegen belangen mee te laten wegen (rechtsoverweging 5.27):
Dit betoog is niet relevant, al was het maar omdat Hammy Media haar organisatie zo heeft ingericht dat zij het aangeboden beeldmateriaal wel controleert en geen neutrale rol speelt. Voor zover Hammy Media zou menen dat zij zonder controle al het aan haar aangeboden pornografisch beeldmateriaal zonder meer openbaar zou mogen maken, miskent zij dat dit haar niet is toegestaan indien niet alle personen die daarop zijn te zien, hiervoor toestemming hebben gegeven. Daarbij is van betekenis dat Hammy Media zich juist richt op het verwerken en aanbieden van beeldmateriaal met pornografische inhoud.
Begrijpelijk.
Conclusie
De uitspraak van het Gerechtshof Amsterdam in de zaak van Hammy Media is er één waarin een opgelegde filterverplichting niet vereist wordt geheel geautomatiseerd te moeten kunnen (hoewel dit nergens uitdrukkelijk wordt bepaald). Het is de vraag in hoeverre deze uitspraak bij zal dragen aan een verscherpte aandacht voor de technische aard van mogelijke filterverplichtingen in de rechtspraak omtrent online content.
Het lijkt hierbij niet onaannemelijk te verwachten dat hierin variaties zullen ontstaan al naar gelang de aard van de betreffende rechtsinbreuken en de daardoor getroffen belangen.
Wij kijken uit naar verdere ontwikkelingen op dit vlak en praten u graag bij op basis van onze eigen kennis en ervaring. Neemt u gerust telefonisch (046 420 56 60) of per e-mail (info@kampsvanbaar.nl) contact met ons op.