top of page
Writer's pictureMark Baars

Legal Shit: Nieuwsorganisaties beschuldigen Perplexity AI van plagiaat en onethisch web-scrapen

De afgelopen weken is Perplexity AI, een AI-gedreven zoekmachine, in opspraak geraakt vanwege beschuldigingen van plagiaat en onethisch web-scrapen. Grote nieuwsorganisaties, waaronder Forbes en WIRED, hebben ernstige beschuldigingen geuit tegen het bedrijf, dat ervan wordt beschuldigd content van hun websites te kopiëren en opnieuw te gebruiken zonder de juiste toestemming of bronvermelding.


Wat is er aan de hand?

Perplexity AI combineert zoekfunctionaliteit met generatieve AI-technologie om content te genereren op basis van gebruikerszoekopdrachten. Volgens de beschuldigingen maakt het bedrijf gebruik van web-scraping technieken die in strijd zijn met de Robots Exclusion Protocol, een standaard die websites in staat stelt om te bepalen hoe bots met hun content omgaan. Deze beschuldigingen zijn verergerd nadat Forbes meldde dat Perplexity een artikel van hun site had overgenomen en slechts minimale bronvermelding had toegevoegd.


WIRED heeft verder onderzoek gedaan en bewijs gevonden dat de AI-tool van Perplexity inhoud van websites scrape die expliciet hebben aangegeven dat dergelijke activiteiten niet zijn toegestaan. Dit heeft geleid tot een onderzoek door Amazon Web Services (AWS), het cloudplatform dat door Perplexity wordt gebruikt, om te beoordelen of het bedrijf hun servicevoorwaarden heeft geschonden​​.


Reactie van Perplexity AI

Aravind Srinivas, de CEO van Perplexity AI, heeft de beschuldigingen tegengesproken en beweert dat er sprake is van een misverstand over de werking van hun technologie. Hij geeft aan dat een derde partij, gespecialiseerd in web-crawling en indexing, verantwoordelijk is voor de vermeende schendingen. Dit bedrijf wordt echter niet bij naam genoemd vanwege een geheimhoudingsverklaring​.


Een woordvoerder van Perplexity AI heeft aangegeven dat het bedrijf volledig samenwerkt met het onderzoek van AWS en benadrukt dat hun technologie ontworpen is om de regels van het Robots Exclusion Protocol te respecteren​.


Breder debat en toekomstimplicaties

Deze situatie heeft een breder debat aangewakkerd over de ethische verantwoordelijkheid van AI-ontwikkelaars bij het beheren van data. Terwijl de AI-technologie steeds geavanceerder wordt in het autonoom genereren en cureren van content, wordt het steeds belangrijker om duidelijke richtlijnen en mogelijk nieuwe wettelijke kaders te ontwikkelen om de rechten van contentmakers te beschermen​​.


De uitkomst van het onderzoek van Amazon en de mogelijke juridische stappen van nieuwsorganisaties zoals Forbes kunnen precedent scheppen voor hoe AI-bedrijven omgaan met online content. Dit kan leiden tot strengere regelgeving en een eerlijker ecosysteem voor zowel contentmakers als AI-ontwikkelaars.

2 views0 comments

Comments


bottom of page