Door vooraf een strikvraag te bedenken kunnen mensen zich bewapenen tegen AI-fraude

publicatiedatum May. 31, 2023, 06:41 am EDT
Tilburg, Nederland
Door vooraf een strikvraag te bedenken kunnen mensen zich bewapenen tegen AI-fraude
De politie waarschuwde vorige week voor het eerst over oplichting waarbij de stem van een familielid elektronisch wordt nagebootst

Mensen die vrezen dat ze het slachtoffer worden van oplichting met behulp van moderne technologie als deepfakes of ChatGPT, kunnen hier simpele voorzorgsmaatregelen tegen nemen. De politie waarschuwde vorige week voor het eerst over oplichting waarbij de stem van een familielid elektronisch wordt nagebootst door middel van deepfake-techniek.

Omdat fraudeurs vaak werken met een script dat op vooraf ingestelde aannames berust, is voor het doelwit relatief eenvoudig de oplichtingspoging te ontregelen. Dat kan door het verhaal dat de oplichter heeft uitgestippeld, in de war te schoppen.

Je moet het scenario dat de dader heeft uitgedacht, naar jouw hand zetten. Dat kan heel makkelijk door over iets totaal anders te beginnen. Bijvoorbeeld: vraag naar het gebroken pootje van de kat, of begin over die ene tweedehands Peugeot. Als het maar totaal niet in het verhaal past. Omdat je daar in het heetst van de strijd niet altijd aan denkt, kun je dit soort vragen vooraf al verzinnen. Die schrijf je desnoods in een notitie waar je makkelijk bij kunt.

Zeker als een crimineel gebruik maakt van Large Language Models, de techniek achter ChatGPT, dan zal de computer zich geen raad weten met de wedervraag. Bij de vrouw die in RTL Nieuws vertelde over de poging om met vervalste stem van haar zoon geld afhandig te maken, viel de oplichter ook door zo'n onverwachte plotwending door de mand.


Distributiekanalen: Cybersecurity
  • Pandora Intelligence
  • Log in om deze informatie te zien
Amaxwire, de slimme manier om online op te vallen