Tab Magazine

Tecnologie per assicurazioni e banche

Intelligenza artificiale “prêt à l’usage”: attenti alla privacy

29 Gennaio 2025

Secondo Filip Mazan (Eset), occorre evitare di caricare informazioni sensibili in Deep Seek e nelle altre piattaforme Ia

Filip Mazan intelligenza artificiale privacy
Filip Mazan

 

L’improvvisa comparsa di Deep Seek, che lunedì scorso ha causato il forte calo del Nasdaq e di molti titoli tecnologici, ha anche attirato moltissimi utenti, che hanno scaricato in massa la sua app. Il chatbot cinese – nato nel 2023 ma sbarcato da poco sulle prime pagine dei giornali – è stato sviluppato con chip di seconda fascia (a causa delle sanzioni Usa contro Pechino in questo campo) e soprattutto con investimenti minori rispetto ai protagonisti americani dell’intelligenza artificiale; tuttavia, le sue prestazioni sembrano migliori rispetto ai “ricchi” concorrenti. E questo nonostante qualche argomento off limits (come i fatti di Piazza Tienanmen).

 

Adelante, Pedro, con juicio

Avere a disposizione una parte così vasta dello scibile umano non è, in ogni caso, privo di rischi. “Sebbene l’innovazione nell’intelligenza artificiale rappresenti un passo significativo”, avverte a infatti Filip Mazan, senior manager of advanced threat detection and Ai research di Eset, “è fondamentale approcciarsi a questi strumenti con cautela”.
Sì, perché “questa accessibilità ha un costo significativo: la privacy. Secondo l’informativa di Deep Seek, i dati dell’app vengono archiviati su server in Cina, includendo chat, testo, audio, prompt e file caricati, come immagini o Pdf. E’ consigliabile evitare di caricare informazioni sensibili, siano esse personali o lavorative. Anche domande apparentemente innocue su salute, politica o questioni quotidiane potrebbero essere compromesse”.

 

Attenti alle manipolazioni

La precauzione, naturalmente, non è limitata a Deep Seek: “vale infatti per tutte le piattaforme in cui si condividono dati privati, inclusi i servizi come ChatGpt di OpenAi”, dice Mazan. In ogni caso, “la localizzazione dei dati in Cina solleva preoccupazioni su come possano essere utilizzati o monitorati senza il nostro consenso”.
La combinazione di accessibilità e funzionalità avanzata espone dunque a nuovi rischi legati alla privacy e alla sicurezza, ricorda Mazan. “Il modello di apprendimento automatico di DeepSeek, R1, seppur innovativo, può essere vulnerabile a manipolazioni. I malintenzionati, inclusi i criminali informatici e i gruppi sponsorizzati, potrebbero sfruttare queste capacità per ottimizzare malware, ingegnerizzare dispositivi dannosi o generare contenuti deepfake senza restrizioni”.
Nelle mani sbagliate, “questi strumenti potrebbero manipolare l’opinione pubblica o influenzare il pensiero politico. Trasformandosi in armi di distruzione di massa, come già accade sui social media“.

Show Buttons
Hide Buttons