Tehisintellekt ehk AI, näiteks nagu ka populaarne ChatGPT, pakub kasutajatele põnevaid võimalusi, lubab suurest infohulgast kiiresti teavet otsida, seda analüüsida ja süstematiseerida. AI plahvatusliku kasutamise kõrval on jäänud aga unarusse küberturvalisuse teema. Kas on ohutu jagada AI-le oma isiklikku informatsiooni? Mida peaks teadma andmete jagamisest ja nendega seotud riskidest?
Teadvustamata küberoht: ära jaga tehisintellektile liiga palju isiklikku infot
„AI aitab paljudel kiiremini oma tööülesandeid täita või lihtsalt efektiivsemalt infot otsida. Samas on AI suureks abiks ka küberkelmidele, kes saavad AI abil samuti lihtsamalt oma petukirju tõlkida, veebilehti luua, ohvrite kohta infot koguda ja identiteedivargust sooritada. Üks vähe räägitud aspekte on aga see, et inimesed ka ise kipuvad tihti ülemäära oma isiklikke andmeid AI-ga jagama,“ märkis Citadele panga rahapesu tõkestamise osakonna juht Viktor Tkatšenko. Tehnoloogia arenedes võib olla väga raske kontrollida, kuhu ja kellele meie info lõpuks jõuab.
Ta selgitas, et paljud AI-süsteemid on mõeldud töötlemaks tohutut infot hulka, et pakkuda kasutajale parimaid vastuseid. Selleks, et tehisintellekt saaks aru, mida temalt küsitakse, võidakse koguda ja analüüsida kasutajate esitatud andmeid. „Isegi kui mõned AI-mudelid, nagu ChatGPT, töötavad hetkel OpenAI turvalistes serverites, ei pruugi alati olla kasutajale selge, kus andmeid täpselt salvestatakse ja kui kaua need seal püsivad. On võimalik, et neid andmeid hoitakse pilves, kust need võivad aja jooksul muutuda kättesaadavaks uutele tehnoloogiatele, tarkvaradele või andmelekete kaudu pahatahtlikele osapooltele,“ lausus Tkatšenko.
Kas tulevikus saab andmeid ära kasutada?
Praegu on AI kasutamise riskide hindamine keeruline, sest tegu on kiirelt areneva ja muutuva valdkonnaga, kuid tulevikus võib tehnoloogia arenedes muutuda lihtsamaks andmeid erinevatel eesmärkidel tagasi tuua ja analüüsida. See tähendab, et täna jagatud andmed, võivad aastate pärast osutuda väärtuslikeks infokildudeks, mida saab valedesse kätesse sattumise korral ära kasutada näiteks identiteedivarguseks. Andmed, mida me täna AI-le jagame, võivad olla küberturvalisuse mõttes liiga isiklikud ja ühel hetkel ohtlikud. „Tegelikult kehtivad AI kasutamisel sarnased reeglid nagu tavalises internetikäitumises ja -suhtluseski,“ ütles Tkatšenko.
Soovitused küberturvalisuse tagamiseks AI-ga suheldes.
Väldi isikliku informatsiooni jagamist. Isikukoodid, täisnimi, aadress, telefoninumber, finantsandmed või muud tundlikud andmed.
Esita küsimusi üldiselt. Kasuta üldisemaid küsimusi, mis ei nõua täpset infot sinu identiteedi kohta. Näiteks küsi AI-lt üldiste finants- või reisinõuannete kohta, mitte aga oma pangaandmete või finantside haldamise soovitusi.
Eelista anonüümsust. Jälgi, et AI-süsteemid, mida kasutad, ei oleks seotud ühegi teise isikliku kontoga, kus võidakse koguda ja salvestada sinu isiklikku infot. Lisaturvalisust aitab näiteks tagada ka see kui luua AI-süsteemi kasutamiseks eraldi e-postkast, millega konto siduda.
Tutvu oma õiguste ja AI platvormi poliitikatega. On oluline teada, millised on sinu õigused oma andmete kustutamise või jagamise osas, et vältida hilisemaid halbu üllatusi.
Kasuta vaid ametlikke süsteeme. Petturid kasutavad AI populaarsust ära luues oma juturoboteid, mille abil saada kätte inimeste isiklikku teavet. Kasuta nõu saamiseks vaid neid süsteeme ja juturoboteid, kelle omaniku ja arendaja usaldusväärsuses oled kindel.