Kennisbank

Platformaansprakelijkheid (DSA)

Hoe de Digital Services Act bedrijven helpt bij contentverwijdering en platformverantwoordelijkheid

Jarenlang konden platforms zoals Facebook, Google en Twitter grotendeels zelf bepalen wat ze wel en niet modereerden. Voor bedrijven die slachtoffer waren van laster, nepreviews of privacy-inbreuken was het vaak een frustrerende strijd om content verwijderd te krijgen. Platforms reageerden traag, weigerden zonder motivering of bleven onbereikbaar.

Sinds 17 februari 2024 is dat veranderd. De Digital Services Act (DSA)—Europese wetgeving die platforms verplicht tot transparantie, snellere moderatie en verantwoordelijkheid—geeft bedrijven eindelijk effectieve rechtsmiddelen. Platforms die zich niet aan de regels houden, riskeren boetes tot 6% van hun wereldwijde omzet.

BrightShield Legal helpt bedrijven om de DSA strategisch in te zetten voor contentverwijdering, platformaansprakelijkheid en klachten bij toezichthouders. We kennen de procedures, formulieren en escalatieroutes om platforms te dwingen tot actie.

1. Wat houdt het in?

De Digital Services Act (DSA) is EU-wetgeving die platforms verplicht tot:

  • Content moderatie – Platforms moeten meldingen van onrechtmatige content beoordelen en daarop handelen
  • Transparantie – Beslissingen over verwijdering of handhaving moeten worden gemotiveerd
  • Beroepsmogelijkheden – Gebruikers en bedrijven kunnen bezwaar maken tegen platformbeslissingen
  • Aansprakelijkheid – Platforms zijn aansprakelijk als ze niet handelen na kennisgeving van onrechtmatige content
  • Toezicht – Nationale toezichthouders (Digital Services Coordinators) kunnen boetes opleggen bij schendingen

De DSA geldt voor alle online platforms die actief zijn in de EU: sociale media, zoekmachines, marktplaatsen, reviewsites, fora en hostingproviders. Extra verplichtingen gelden voor Very Large Online Platforms (VLOPs)—platforms met meer dan 45 miljoen EU-gebruikers, zoals Google, Meta, Twitter/X, TikTok en Amazon.

Voor bedrijven betekent dit: U heeft nu wettelijk recht op snelle beoordeling van uw meldingen, gemotiveerde beslissingen en escalatiemogelijkheden als platforms weigeren te handelen. De DSA maakt contentverwijdering effectiever dan ooit.

2. Wanneer is het relevant voor bedrijven?

De DSA is relevant voor bedrijven in deze situaties:

Contentverwijdering

U wilt nepreviews, lasterlijke posts, privacy-inbreuken of andere onrechtmatige content verwijderd, maar het platform reageert niet of weigert.

Platformweigering

Het platform heeft uw melding afgewezen zonder duidelijke motivering. De DSA verplicht platforms tot transparantie over hun beslissingen.

Onredelijke vertraging

Het platform reageert niet binnen redelijke termijn (vaak 7-14 dagen). De DSA verplicht tot snelle behandeling.

Platformaansprakelijkheid

U wilt het platform aansprakelijk stellen voor schade omdat ze niet handelden na uw melding van onrechtmatige content.

Structurele problemen

Een platform laat systematisch toe dat uw bedrijf wordt geschaad (bijv. nepreviews die niet worden gemodereerd).

Toezichthouder-escalatie

Alle platformprocedures zijn uitgeput. U wilt een klacht indienen bij de Digital Services Coordinator voor handhaving.

3. Kernbepalingen van de DSA

Deze artikelen zijn het meest relevant voor bedrijven:

Artikel 16 – Meldmechanisme (Notice and Action)

Platforms moeten een gebruiksvriendelijk meldsysteem aanbieden waarmee u onrechtmatige content kunt melden. De melding moet bevatten:

  • • Exacte URL of identificatie van de content
  • • Motivering waarom content onrechtmatig is (juridische grondslag)
  • • Uw contactgegevens (voor verificatie)

Platform moet: Uw melding "onverwijld" behandelen, beslissen over verwijdering en u informeren over hun beslissing.

Artikel 17 – Motivering van beslissingen

Als het platform besluit content te verwijderen (of juist niet), moeten ze dit motiveren. Bij weigering moet duidelijk worden waarom uw melding niet als onrechtmatig wordt beschouwd. Dit voorkomt willekeurige beslissingen.

Artikel 20 – Interne klachtafhandeling

Platforms moeten een intern bezwaarmechanisme bieden. Als u het oneens bent met een platformbeslissing, kunt u bezwaar maken. Het platform moet dit "tijdig, niet-discriminerend en zorgvuldig" behandelen.

Artikel 21 – Out-of-court geschillenbeslechting

Als het interne bezwaar niet helpt, kunt u de zaak voorleggen aan een gecertificeerde out-of-court geschillenbeslechtingsinstantie. Deze instanties zijn onafhankelijk en kunnen platforms dwingen tot actie.

Artikel 22 – Trusted Flaggers

Organisaties met expertise in onrechtmatige content kunnen trusted flagger-status krijgen. Hun meldingen krijgen voorrang en worden sneller behandeld.

BrightShield streeft naar trusted flagger-status om contentverwijdering voor onze cliënten verder te versnellen.

Artikel 6 – Aansprakelijkheid na kennisgeving

Platforms zijn niet automatisch aansprakelijk voor content van gebruikers, tenzij ze na een melding niet handelen. Als u onrechtmatige content meldt en het platform doet niets, kunt u het platform civielrechtelijk aansprakelijk stellen voor schade.

4. Praktische aanpak met de DSA

BrightShield Legal gebruikt de DSA strategisch voor contentverwijdering:

Stap 1: DSA-conforme melding

We dienen een formele melding in via het DSA-meldsysteem van het platform:

  • • Exacte URL en beschrijving van de content
  • • Juridische grondslag (AVG, smaad, onrechtmatige daad, etc.)
  • • Bewijs (screenshots, context, schade)
  • • Verzoek tot verwijdering met motivering

Stap 2: Platform beoordeling (7-14 dagen)

Het platform moet "onverwijld" beslissen. In de praktijk: 7-14 dagen voor standaard platforms, sneller voor VLOPs. We monitoren de behandeling en vragen updates aan bij vertraging.

Stap 3: Intern bezwaar (bij weigering)

Als het platform weigert, dienen we een intern bezwaar in (Artikel 20). We vragen om heroverweging met aanvullende juridische onderbouwing.

Stap 4: Out-of-court geschillenbeslechting

Bij blijvende weigering verwijzen we de zaak naar een gecertificeerde geschillenbeslechter (Artikel 21). Deze kan het platform dwingen tot actie zonder rechtszaak.

Stap 5: Klacht bij Digital Services Coordinator

Als alle procedures falen, dienen we een klacht in bij de nationale toezichthouder (in Nederland: de Autoriteit Consument & Markt). Deze kan:

  • • Het platform onderzoeken
  • • Verwijdering afdwingen
  • • Boetes opleggen (tot 6% wereldwijde omzet)

Stap 6: Civiele aansprakelijkheid (via advocaat)

Als u financiële schade heeft geleden doordat het platform niet handelde na uw melding, kunnen we een gespecialiseerde advocaat inschakelen voor een schadeclaim tegen het platform (Artikel 6).

5. Voorbeeld uit de praktijk

Situatie: Een horecaondernemer kreeg te maken met 15 nepreviews op Google binnen 48 uur, allemaal van nieuwe accounts met 1-ster en generieke teksten. Zijn gemiddelde rating zakte van 4,5 naar 3,2 sterren. Google weigerde de reviews te verwijderen via hun standaard meldformulier zonder motivering.

Aanpak: We dienden een DSA-conforme melding in met patroonanalyse (nieuwe accounts, timing, taalgebruik) en bewijs dat de reviewers geen klanten waren. We verwezen expliciet naar Artikel 16 DSA en eisten gemotiveerde beslissing. Google weigerde opnieuw. We dienden intern bezwaar in (Artikel 20) en dreigden met escalatie naar de ACM.

Resultaat: Google verwijderde 12 van de 15 reviews binnen 10 dagen na het interne bezwaar. De overige 3 bleven staan omdat Google stelde dat die "binnen hun richtlijnen vielen" (ondanks twijfels). De rating herstelde naar 4,2 sterren. De ondernemer overwoog geen verdere escalatie omdat de schade voldoende was beperkt.

Les: De DSA maakt platforms verantwoordelijker, maar perfecte resultaten zijn niet gegarandeerd. Platforms hebben nog steeds beoordelingsruimte. Persistentie en juridische druk verhogen de slaagkans aanzienlijk.

Very Large Online Platforms (VLOPs)

Platforms met 45+ miljoen EU-gebruikers hebben extra verplichtingen:

🔍 Risicoanalyse

Jaarlijkse analyse van systemische risico's (desinformatie, illegale content)

🛡️ Crisis-respons

Snelle reactie bij crisissituaties (terrorisme, pandemie)

📊 Data-toegang

Onderzoekers krijgen toegang tot platformdata voor transparantie

⚖️ Externe audit

Jaarlijkse onafhankelijke audit van nalevingsmaatregelen

Huidige VLOPs: Google (Search, Maps, Play, Shopping, YouTube), Meta (Facebook, Instagram), Amazon, Apple App Store, LinkedIn, Pinterest, Snapchat, TikTok, Twitter/X, Wikipedia, Zalando.

Platform weigert uw contentmelding?

Laat BrightShield Legal de DSA-procedures doorlopen en platforms dwingen tot actie. Van melding tot toezichthouder.

Vraag gratis analyse aan