3 Privacyrisico's en zorgen voor chatbots waarvan u op de hoogte moet zijn

3 Privacyrisico's en zorgen voor chatbots waarvan u op de hoogte moet zijn
Lezers zoals jij helpen MUO te ondersteunen. Wanneer u een aankoop doet via links op onze site, kunnen we een partnercommissie verdienen. Lees verder.   Een hangslot met toetsenbordtoetsen verspreid

Chatbots bestaan ​​al jaren, maar de opkomst van grote taalmodellen, zoals ChatGPT en Google Bard, heeft de chatbotindustrie nieuw leven ingeblazen.





Miljoenen mensen maken nu wereldwijd gebruik van AI-chatbots, maar er zijn enkele belangrijke privacyrisico’s en zorgen waarmee u rekening moet houden als u een van deze tools wilt uitproberen.





1. Gegevensverzameling

De meeste mensen gebruiken chatbots niet alleen om hallo te zeggen. Moderne chatbots zijn ontworpen om complexe vragen en verzoeken te verwerken en erop te reageren, waarbij gebruikers vaak veel informatie in hun prompts opnemen. Zelfs als je alleen maar een simpele vraag stelt, wil je niet echt dat deze verder gaat dan je gesprek.





Volgens OpenAI's ondersteuningssectie , kunt u ChatGPT-chatlogboeken verwijderen wanneer u maar wilt, en deze logbestanden worden na 30 dagen definitief verwijderd uit de systemen van OpenAI. Het bedrijf zal echter bepaalde chatlogboeken bewaren en beoordelen als deze zijn gemarkeerd vanwege schadelijke of ongepaste inhoud.

Een andere populaire AI-chatbot, Claude, houdt ook je eerdere gesprekken bij. Het ondersteuningscentrum van Anthropic stelt dat Claude 'uw aanwijzingen en uitvoer in het product bijhoudt om u in de loop van de tijd een consistente productervaring te bieden in overeenstemming met uw controles.' U kunt uw gesprekken met Claude verwijderen, zodat hij vergeet waar u het over hebt gehad, maar dit betekent niet dat Anthropic uw logbestanden onmiddellijk van zijn systemen zal verwijderen.



Dit roept uiteraard de vraag op: worden mijn gegevens bewaard of niet? Gebruiken ChatGPT of andere chatbots mijn gegevens?

Maar de zorgen houden hier niet op.





Hoe leert ChatGPT?

Om informatie te verschaffen worden grote taalmodellen getraind met enorme hoeveelheden data. Volgens Wetenschapsfocus Alleen al ChatGPT-4 kreeg tijdens zijn trainingsperiode 300 miljard woorden aan informatie te verwerken. Dit is niet rechtstreeks uit een paar encyclopedieën overgenomen. In plaats daarvan gebruiken chatbot-ontwikkelaars massa's informatie van internet om hun modellen te trainen. Dit kunnen gegevens uit boeken, films, artikelen, Wikipedia-artikelen, blogposts, commentaren en zelfs recensiesites zijn.

Houd er rekening mee dat, afhankelijk van het privacybeleid van een chatbotontwikkelaar, sommige van de bovengenoemde bronnen mogelijk niet worden gebruikt in trainingen.





Velen hebben ChatGPT bekritiseerd en beweren dat het een soort nachtmerrie is op het gebied van privacy ChatGPT is niet te vertrouwen . Waarom is dit het geval?

Dit is waar de dingen een beetje wazig worden. Als u ChatGPT-3.5 rechtstreeks vraagt ​​of het toegang heeft tot productrecensies of artikelcommentaren, krijgt u een duidelijk negatief antwoord. Zoals je in de onderstaande schermafbeelding kunt zien, stelt GPT-3.5 dat het tijdens zijn training geen toegang heeft gekregen tot opmerkingen over gebruikersartikelen of productrecensies.

welke generatie is de nieuwste ipad
  screenshot van chatgpt-3.5-gesprek

In plaats daarvan werd getraind met behulp van 'een breed scala aan tekst van internet, waaronder websites, boeken, artikelen en ander openbaar beschikbaar geschreven materiaal tot september 2021.'

Maar is dit hetzelfde voor GPT-4?

Toen we GPT-4 vroegen, kregen we te horen dat 'OpenAI geen specifieke gebruikersrecensies, persoonlijke gegevens of artikelcommentaren gebruikte' tijdens de trainingsperiode van de chatbot. Bovendien vertelde GPT-4 ons dat de antwoorden worden gegenereerd op basis van 'patronen in de gegevens waarop [het] is getraind, die voornamelijk bestaan ​​uit boeken, artikelen en andere tekst van internet.'

Toen we verder onderzochten, beweerde GPT-4 dat bepaalde sociale media-inhoud inderdaad in de trainingsgegevens kan worden opgenomen, maar dat de makers altijd anoniem zullen blijven. GPT-4 verklaarde specifiek: 'Zelfs als de inhoud van platforms als Reddit deel uitmaakte van de trainingsgegevens, [heeft] geen toegang tot specifieke opmerkingen, berichten of gegevens die kunnen worden teruggekoppeld naar een individuele gebruiker.'

Een ander opmerkelijk onderdeel van het antwoord van GPT-4 luidt als volgt: 'OpenAI heeft niet expliciet elke gebruikte gegevensbron vermeld.' Natuurlijk zou het moeilijk zijn voor OpenAI om 300 miljard woorden aan bronnen op te sommen, maar dit laat wel ruimte voor speculatie.

In een Ars Technica-artikel , werd gesteld dat ChatGPT 'persoonlijke informatie verzamelt die zonder toestemming is verkregen'. In hetzelfde artikel werd contextuele integriteit genoemd, een concept dat verwijst naar het alleen gebruiken van iemands informatie in de context waarin deze oorspronkelijk werd gebruikt. Als ChatGPT deze contextuele integriteit schendt, kunnen de gegevens van mensen in gevaar komen.

Een ander punt van zorg hier is de naleving van OpenAI met de Algemene Verordening Gegevensbescherming (AVG) . Dit is een verordening die door de Europese Unie wordt opgelegd om de gegevens van burgers te beschermen. Verschillende Europese landen, waaronder Italië en Polen, zijn onderzoeken gestart naar ChatGPT vanwege zorgen over de naleving van de AVG. Korte tijd werd ChatGPT zelfs verboden in Italië vanwege zorgen over de privacy.

OpenAI heeft in het verleden gedreigd zich terug te trekken uit de EU vanwege geplande AI-regelgeving, maar dit is sindsdien ingetrokken.

ChatGPT is misschien wel de grootste AI-chatbot van dit moment, maar privacyproblemen met chatbots beginnen en eindigen niet bij deze provider. Als u een schimmige chatbot met een flauw privacybeleid gebruikt, kunnen uw gesprekken worden misbruikt of kan er zeer gevoelige informatie worden gebruikt in de trainingsgegevens.

2. Gegevensdiefstal

Zoals elk online hulpmiddel of platform zijn chatbots kwetsbaar voor cybercriminaliteit. Zelfs als een chatbot er alles aan zou doen om gebruikers en hun gegevens te beschermen, bestaat er altijd een kans dat een slimme hacker erin slaagt zijn interne systemen te infiltreren.

Als een bepaalde chatbotservice uw gevoelige informatie opslaat, zoals betalingsgegevens voor uw premiumabonnement, contactgegevens en dergelijke, kan deze worden gestolen en misbruikt als er een cyberaanval zou plaatsvinden.

Dit geldt vooral als je een minder veilige chatbot gebruikt waarvan de ontwikkelaars niet hebben geïnvesteerd in adequate beveiliging. Niet alleen kunnen de interne systemen van het bedrijf worden gehackt, maar uw eigen account loopt ook het risico te worden gecompromitteerd als deze geen inlogwaarschuwingen of een authenticatielaag heeft.

Nu AI-chatbots zo populair zijn, zijn cybercriminelen er uiteraard massaal toe overgegaan om deze industrie te gebruiken voor hun oplichting. Valse ChatGPT-websites en plug-ins zijn een groot probleem geweest sinds de chatbot van OpenAI eind 2022 mainstream werd, waarbij mensen trapten in oplichting en persoonlijke informatie weggaven onder het mom van legitimiteit en vertrouwen.

In maart 2023 rapporteerde MUO over een valse ChatGPT Chrome-extensie die Facebook-logins steelt . De plug-in zou een achterdeur van Facebook kunnen misbruiken om spraakmakende accounts te hacken en gebruikerscookies te stelen. Dit is slechts één voorbeeld van talloze nep-ChatGPT-services die zijn ontworpen om onwetende slachtoffers op te lichten.

systeemherstel windows 7 veilige modus

3. Malware-infectie

Als u een duistere chatbot gebruikt zonder dat u het beseft, kan het zijn dat de chatbot u links naar kwaadaardige websites aanbiedt. Misschien heeft de chatbot je op de hoogte gebracht van een verleidelijke weggeefactie, of heeft hij een bron gegeven voor een van zijn uitspraken. Als de exploitanten van de dienst illegale bedoelingen hebben, kan het hele doel van het platform zijn om malware en oplichting via kwaadaardige links te verspreiden.

Als alternatief kunnen hackers een legitieme chatbotservice compromitteren en deze gebruiken om malware te verspreiden. Als deze chatbot uit heel veel mensen bestaat, zullen duizenden of zelfs miljoenen gebruikers aan deze malware worden blootgesteld. Fake ChatGPT-apps hebben zelfs in de Apple App Store gestaan , dus het is het beste om voorzichtig te zijn.

Over het algemeen mag u nooit op links klikken die een chatbot eerder heeft aangeboden door het via een website voor het controleren van links te laten lopen . Dit lijkt misschien irritant, maar het is altijd het beste om er zeker van te zijn dat de site waarnaar u wordt geleid, geen kwaadaardig ontwerp heeft.

Bovendien mag u nooit chatbot-plug-ins en extensies installeren zonder eerst hun legitimiteit te verifiëren. Doe een beetje onderzoek rond de app om te zien of deze goed is beoordeeld, en voer ook een zoekopdracht uit bij de ontwikkelaar van de app om te zien of je iets duisters vindt.

Chatbots zijn niet ongevoelig voor privacyproblemen

Zoals de meeste online tools tegenwoordig, zijn chatbots herhaaldelijk bekritiseerd vanwege hun mogelijke valkuilen op het gebied van veiligheid en privacy. Of het nu gaat om een ​​chatbotprovider die bezuinigingen doet op het gebied van gebruikersveiligheid, of om de aanhoudende risico's van cyberaanvallen en oplichting, het is van cruciaal belang dat u weet wat uw chatbotservice over u verzamelt en of deze adequate beveiligingsmaatregelen heeft getroffen.