„AI aitab paljudel kiiremini oma tööülesandeid täita või lihtsalt efektiivsemalt infot otsida. Samas on AI suureks abiks ka küberkelmidele, kes saavad AI abil samuti lihtsamalt oma petukirju tõlkida, veebilehti luua, ohvrite kohta infot koguda ja identiteedivargust sooritada. Üks vähe räägitud aspekte on aga see, et inimesed ka ise kipuvad tihti ülemäära oma isiklikke andmeid AI-ga jagama,“ märkis Citadele panga rahapesu tõkestamise osakonna juht Viktor Tkatšenko. Tehnoloogia arenedes võib olla väga raske kontrollida, kuhu ja kellele meie info lõpuks jõuab.
Ta selgitas, et paljud AI-süsteemid on mõeldud töötlemaks tohutut infot hulka, et pakkuda kasutajale parimaid vastuseid. Selleks, et tehisintellekt saaks aru, mida temalt küsitakse, võidakse koguda ja analüüsida kasutajate esitatud andmeid. „Isegi kui mõned AI-mudelid, nagu ChatGPT, töötavad hetkel OpenAI turvalistes serverites, ei pruugi alati olla kasutajale selge, kus andmeid täpselt salvestatakse ja kui kaua need seal püsivad. On võimalik, et neid andmeid hoitakse pilves, kust need võivad aja jooksul muutuda kättesaadavaks uutele tehnoloogiatele, tarkvaradele või andmelekete kaudu pahatahtlikele osapooltele,“ lausus Tkatšenko.
Kas tulevikus saab andmeid ära kasutada?
Praegu on AI kasutamise riskide hindamine keeruline, sest tegu on kiirelt areneva ja muutuva valdkonnaga, kuid tulevikus võib tehnoloogia arenedes muutuda lihtsamaks andmeid erinevatel eesmärkidel tagasi tuua ja analüüsida. See tähendab, et täna jagatud andmed, võivad aastate pärast osutuda väärtuslikeks infokildudeks, mida saab valedesse kätesse sattumise korral ära kasutada näiteks identiteedivarguseks. Andmed, mida me täna AI-le jagame, võivad olla küberturvalisuse mõttes liiga isiklikud ja ühel hetkel ohtlikud. „Tegelikult kehtivad AI kasutamisel sarnased reeglid nagu tavalises internetikäitumises ja -suhtluseski,“ ütles Tkatšenko.