[](https://www.paloaltonetworks.com/?ts=markdown) * IT * [USA (ENGLISH)](https://www.paloaltonetworks.com/) * [AUSTRALIA (ENGLISH)](https://www.paloaltonetworks.com.au) * [BRAZIL (PORTUGUÉS)](https://www.paloaltonetworks.com.br) * [CANADA (ENGLISH)](https://www.paloaltonetworks.ca) * [CHINA (简体中文)](https://www.paloaltonetworks.cn) * [FRANCE (FRANÇAIS)](https://www.paloaltonetworks.fr) * [GERMANY (DEUTSCH)](https://www.paloaltonetworks.de) * [INDIA (ENGLISH)](https://www.paloaltonetworks.in) * ITALY (ITALIANO) * [JAPAN (日本語)](https://www.paloaltonetworks.jp) * [KOREA (한국어)](https://www.paloaltonetworks.co.kr) * [LATIN AMERICA (ESPAÑOL)](https://www.paloaltonetworks.lat) * [MEXICO (ESPAÑOL)](https://www.paloaltonetworks.com.mx) * [SINGAPORE (ENGLISH)](https://www.paloaltonetworks.sg) * [SPAIN (ESPAÑOL)](https://www.paloaltonetworks.es) * [TAIWAN (繁體中文)](https://www.paloaltonetworks.tw) * [UK (ENGLISH)](https://www.paloaltonetworks.co.uk) * ![magnifying glass search icon to open search field](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/search-black.svg) * [Entre em contato conosco](https://www.paloaltonetworks.it/contact?ts=markdown) * [Recursos](https://www.paloaltonetworks.it/resources?ts=markdown) * [Obtenha suporte](https://support.paloaltonetworks.com/support) * [Sei sotto attacco?](https://start.paloaltonetworks.com/contact-unit42.html) ![x close icon to close mobile navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/x-black.svg) [![Palo Alto Networks logo](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/pan-logo-dark.svg)](https://www.paloaltonetworks.com/?ts=markdown) ![magnifying glass search icon to open search field](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/search-black.svg) * [](https://www.paloaltonetworks.com/?ts=markdown) * Prodotti ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Prodotti [Piattaforma di sicurezza di rete basata su AI](https://www.paloaltonetworks.it/network-security?ts=markdown) * [AI sicura sin dalla progettazione](https://www.paloaltonetworks.it/precision-ai-security/secure-ai-by-design?ts=markdown) * [Prisma AIRS](https://www.paloaltonetworks.it/prisma/prisma-ai-runtime-security?ts=markdown) * [Sicurezza accesso AI](https://www.paloaltonetworks.it/sase/ai-access-security?ts=markdown) * [Servizi di sicurezza basati su cloud](https://www.paloaltonetworks.it/network-security/security-subscriptions?ts=markdown) * [Threat Prevention avanzata](https://www.paloaltonetworks.it/network-security/advanced-threat-prevention?ts=markdown) * [URL Filtering avanzato](https://www.paloaltonetworks.it/network-security/advanced-url-filtering?ts=markdown) * [Advanced WildFire](https://www.paloaltonetworks.it/network-security/advanced-wildfire?ts=markdown) * [Sicurezza DNS avanzata](https://www.paloaltonetworks.it/network-security/advanced-dns-security?ts=markdown) * [Prevenzione della perdita di dati aziendali](https://www.paloaltonetworks.it/sase/enterprise-data-loss-prevention?ts=markdown) * [Sicurezza IoT aziendale](https://www.paloaltonetworks.it/network-security/enterprise-device-security?ts=markdown) * [Sicurezza IoT medica](https://www.paloaltonetworks.it/network-security/medical-iot-security?ts=markdown) * [Sicurezza OT industriale](https://www.paloaltonetworks.it/network-security/industrial-ot-security?ts=markdown) * [Firewall di nuova generazione](https://www.paloaltonetworks.it/network-security/next-generation-firewall?ts=markdown) * [Firewall hardware](https://www.paloaltonetworks.it/network-security/hardware-firewall-innovations?ts=markdown) * [Firewall software](https://www.paloaltonetworks.it/network-security/software-firewalls?ts=markdown) * [Strata Cloud Manager](https://www.paloaltonetworks.it/network-security/strata-cloud-manager?ts=markdown) * [SD-WAN per NGFW](https://www.paloaltonetworks.it/network-security/sd-wan-subscription?ts=markdown) * [PAN-OS](https://www.paloaltonetworks.it/network-security/pan-os?ts=markdown) * [Panorama](https://www.paloaltonetworks.it/network-security/panorama?ts=markdown) * [SECURE ACCESS SERVICE EDGE](https://www.paloaltonetworks.it/sase?ts=markdown) * [Prisma SASE](https://www.paloaltonetworks.it/sase?ts=markdown) * [Accelerazione delle applicazioni](https://www.paloaltonetworks.it/sase/app-acceleration?ts=markdown) * [Gestione autonoma dell'esperienza digitale](https://www.paloaltonetworks.it/sase/adem?ts=markdown) * [DLP aziendale](https://www.paloaltonetworks.it/sase/enterprise-data-loss-prevention?ts=markdown) * [Prisma Access](https://www.paloaltonetworks.it/sase/access?ts=markdown) * [Prisma Browser](https://www.paloaltonetworks.it/sase/prisma-browser?ts=markdown) * [Prisma SD-WAN](https://www.paloaltonetworks.it/sase/sd-wan?ts=markdown) * [Remote Browser Isolation](https://www.paloaltonetworks.it/sase/remote-browser-isolation?ts=markdown) * [Sicurezza SaaS](https://www.paloaltonetworks.it/sase/saas-security?ts=markdown) [Security Operations Platform basata su AI](https://www.paloaltonetworks.it/cortex?ts=markdown) * [Sicurezza del cloud](https://www.paloaltonetworks.it/cortex/cloud?ts=markdown) * [Cortex Cloud](https://www.paloaltonetworks.it/cortex/cloud?ts=markdown) * [Sicurezza delle applicazioni](https://www.paloaltonetworks.it/cortex/cloud/application-security?ts=markdown) * [Sicurezza del livello cloud](https://www.paloaltonetworks.it/cortex/cloud/cloud-posture-security?ts=markdown) * [Sicurezza del runtime cloud](https://www.paloaltonetworks.it/cortex/cloud/runtime-security?ts=markdown) * [Prisma Cloud](https://www.paloaltonetworks.it/prisma/cloud?ts=markdown) * [SOC basati sull'IA](https://www.paloaltonetworks.it/cortex?ts=markdown) * [Cortex Advanced Email Security](https://www.paloaltonetworks.it/cortex/advanced-email-security?ts=markdown) * [Cortex Exposure Management](https://www.paloaltonetworks.it/cortex/exposure-management?ts=markdown) * [Cortex XSIAM](https://www.paloaltonetworks.it/cortex/cortex-xsiam?ts=markdown) * [Cortex XDR](https://www.paloaltonetworks.it/cortex/cortex-xdr?ts=markdown) * [Cortex XSOAR](https://www.paloaltonetworks.it/cortex/cortex-xsoar?ts=markdown) * [Cortex Xpanse](https://www.paloaltonetworks.it/cortex/cortex-xpanse?ts=markdown) * [Rilevamento e risposta gestiti di Unit 42](https://www.paloaltonetworks.it/cortex/managed-detection-and-response?ts=markdown) * [XSIAM gestito](https://www.paloaltonetworks.it/cortex/managed-xsiam?ts=markdown) * Soluzioni ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Soluzioni Sicurezza AI * [Ecosistema AI sicuro](https://www.paloaltonetworks.it/prisma/prisma-ai-runtime-security?ts=markdown) * [Utilizzo sicuro di GenAI](https://www.paloaltonetworks.it/sase/ai-access-security?ts=markdown) Sicurezza di rete * [Sicurezza di rete cloud](https://www.paloaltonetworks.it/network-security/software-firewalls?ts=markdown) * [Sicurezza del data center](https://www.paloaltonetworks.it/network-security/data-center?ts=markdown) * [Sicurezza DNS](https://www.paloaltonetworks.it/network-security/advanced-dns-security?ts=markdown) * [Rilevamento e prevenzione delle intrusioni](https://www.paloaltonetworks.it/network-security/advanced-threat-prevention?ts=markdown) * [Sicurezza IoT](https://www.paloaltonetworks.it/network-security/enterprise-device-security?ts=markdown) * [Sicurezza 5G](https://www.paloaltonetworks.it/network-security/5g-security?ts=markdown) * [Protezione di tutte le applicazioni, gli utenti e le posizioni](https://www.paloaltonetworks.it/sase/secure-users-data-apps-devices?ts=markdown) * [Trasformazione sicura della filiale](https://www.paloaltonetworks.it/sase/secure-branch-transformation?ts=markdown) * [Lavoro sicuro su qualsiasi dispositivo](https://www.paloaltonetworks.it/sase/secure-work-on-any-device?ts=markdown) * [Sostituzione VPN](https://www.paloaltonetworks.it/sase/vpn-replacement-for-secure-remote-access?ts=markdown) * [Sicurezza Web e phishing](https://www.paloaltonetworks.it/network-security/advanced-url-filtering?ts=markdown) Sicurezza del cloud * [Gestione del livello di sicurezza delle applicazioni (ASPM)](https://www.paloaltonetworks.it/cortex/cloud/application-security-posture-management?ts=markdown) * [Sicurezza della supply chain del software](https://www.paloaltonetworks.it/cortex/cloud/software-supply-chain-security?ts=markdown) * [Sicurezza del codice](https://www.paloaltonetworks.it/cortex/cloud/code-security?ts=markdown) * [Gestione del livello di sicurezza del cloud (CSPM)](https://www.paloaltonetworks.it/cortex/cloud/cloud-security-posture-management?ts=markdown) * [Gestione delle autorizzazioni dell'infrastruttura cloud (CIEM)](https://www.paloaltonetworks.it/cortex/cloud/cloud-infrastructure-entitlement-management?ts=markdown) * [Gestione del livello di sicurezza dei dati (DSPM)](https://www.paloaltonetworks.it/cortex/cloud/data-security-posture-management?ts=markdown) * [AI Security Posture Management (AI-SPM)](https://www.paloaltonetworks.it/cortex/cloud/ai-security-posture-management?ts=markdown) * [Rilevamento e risposta nel cloud (CDR)](https://www.paloaltonetworks.it/cortex/cloud-detection-and-response?ts=markdown) * [Protezione dei carichi di lavoro cloud (CWP)](https://www.paloaltonetworks.it/cortex/cloud/cloud-workload-protection?ts=markdown) * [Sicurezza di applicazioni Web e API (WAAS)](https://www.paloaltonetworks.it/cortex/cloud/web-app-api-security?ts=markdown) Operazioni di sicurezza * [Rilevamento e risposta nel cloud](https://www.paloaltonetworks.it/cortex/cloud-detection-and-response?ts=markdown) * [Automazione della sicurezza di rete](https://www.paloaltonetworks.it/cortex/network-security-automation?ts=markdown) * [Gestione dei casi con incidenti](https://www.paloaltonetworks.it/cortex/incident-case-management?ts=markdown) * [Automazione SOC](https://www.paloaltonetworks.it/cortex/security-operations-automation?ts=markdown) * [Gestione della threat intelligence](https://www.paloaltonetworks.it/cortex/threat-intel-management?ts=markdown) * [Rilevamento e risposta gestiti](https://www.paloaltonetworks.it/cortex/managed-detection-and-response?ts=markdown) * [Gestione della superficie di attacco](https://www.paloaltonetworks.it/cortex/cortex-xpanse/attack-surface-management?ts=markdown) * [Gestione della conformità](https://www.paloaltonetworks.it/cortex/cortex-xpanse/compliance-management?ts=markdown) * [Gestione delle operazioni su Internet](https://www.paloaltonetworks.it/cortex/cortex-xpanse/internet-operations-management?ts=markdown) Sicurezza degli endpoint * [Protezione degli endpoint](https://www.paloaltonetworks.it/cortex/endpoint-protection?ts=markdown) * [Rilevamento e risposta estesi](https://www.paloaltonetworks.it/cortex/detection-and-response?ts=markdown) * [Protezione dal ransomware](https://www.paloaltonetworks.it/cortex/ransomware-protection?ts=markdown) * [Analisi forense digitale](https://www.paloaltonetworks.it/cortex/digital-forensics?ts=markdown) [Settori](https://www.paloaltonetworks.it/industry?ts=markdown) * [Settore pubblico](https://www.paloaltonetworks.com/industry/public-sector) * [Servizi finanziari](https://www.paloaltonetworks.com/industry/financial-services) * [Produzione](https://www.paloaltonetworks.com/industry/manufacturing) * [Sanità](https://www.paloaltonetworks.com/industry/healthcare) * [Soluzioni per le piccole e medie imprese](https://www.paloaltonetworks.com/industry/small-medium-business-portfolio) * Servizi ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Servizi [Servizi di intelligence sulle minacce e risposta agli incidenti](https://www.paloaltonetworks.it/unit42?ts=markdown) * [Valutazione](https://www.paloaltonetworks.it/unit42/assess?ts=markdown) * [Valutazione sicurezza AI](https://www.paloaltonetworks.it/unit42/assess/ai-security-assessment?ts=markdown) * [Valutazione della superficie di attacco](https://www.paloaltonetworks.it/unit42/assess/attack-surface-assessment?ts=markdown) * [Revisione della preparazione alle violazioni](https://www.paloaltonetworks.it/unit42/assess/breach-readiness-review?ts=markdown) * [Valutazione della preparazione al BEC](https://www.paloaltonetworks.com/bec-readiness-assessment) * [Valutazione sicurezza nel cloud](https://www.paloaltonetworks.com/unit42/assess/cloud-security-assessment) * [Valutazione di compromesso](https://www.paloaltonetworks.it/unit42/assess/compromise-assessment?ts=markdown) * [Valutazione del rischio informatico](https://www.paloaltonetworks.it/unit42/assess/cyber-risk-assessment?ts=markdown) * [Due diligence informatica su fusioni e acquisizioni](https://www.paloaltonetworks.it/unit42/assess/mergers-acquisitions-cyber-due-dilligence?ts=markdown) * [Test di penetrazione](https://www.paloaltonetworks.it/unit42/assess/penetration-testing?ts=markdown) * [Esercizi Purple Team](https://www.paloaltonetworks.it/unit42/assess/purple-teaming?ts=markdown) * [Valutazione della preparazione al ransomware](https://www.paloaltonetworks.it/unit42/assess/ransomware-readiness-assessment?ts=markdown) * [Valutazione SOC](https://www.paloaltonetworks.com/unit42/assess/cloud-security-assessment) * [Valutazione del rischio della catena di fornitura](https://www.paloaltonetworks.it/unit42/assess/supply-chain-risk-assessment?ts=markdown) * [Esercizi di simulazione](https://www.paloaltonetworks.it/unit42/assess/tabletop-exercise?ts=markdown) * [Unit 42 Retainer](https://www.paloaltonetworks.it/unit42/retainer?ts=markdown) * [Rispondere](https://www.paloaltonetworks.it/unit42/respond?ts=markdown) * [Risposta agli incidenti cloud](https://www.paloaltonetworks.it/unit42/respond/cloud-incident-response?ts=markdown) * [Analisi forense digitale](https://www.paloaltonetworks.it/unit42/respond/digital-forensics?ts=markdown) * [Risposta agli incidenti](https://www.paloaltonetworks.it/unit42/respond/incident-response?ts=markdown) * [Rilevamento e risposta gestiti](https://www.paloaltonetworks.it/unit42/respond/managed-detection-response?ts=markdown) * [Ricerca delle minacce gestita](https://www.paloaltonetworks.it/unit42/respond/managed-threat-hunting?ts=markdown) * [XSIAM gestito](https://www.paloaltonetworks.it/cortex/managed-xsiam?ts=markdown) * [Unit 42 Retainer](https://www.paloaltonetworks.it/unit42/retainer?ts=markdown) * [Trasformazione](https://www.paloaltonetworks.it/unit42/transform?ts=markdown) * [Sviluppo e revisione del piano IR](https://www.paloaltonetworks.it/unit42/transform/incident-response-plan-development-review?ts=markdown) * [Progettazione del programma di sicurezza](https://www.paloaltonetworks.it/unit42/transform/security-program-design?ts=markdown) * [CISO virtuale](https://www.paloaltonetworks.it/unit42/transform/vciso?ts=markdown) * [Zero Trust Advisory](https://www.paloaltonetworks.com/unit42/assess/cloud-security-assessment) [Servizi clienti globali](https://www.paloaltonetworks.it/services?ts=markdown) * [Istruzione e formazione](https://www.paloaltonetworks.com/services/education) * [Servizi professionali](https://www.paloaltonetworks.com/services/consulting) * [Strumenti per il successo](https://www.paloaltonetworks.com/services/customer-success-tools) * [Servizi di supporto](https://www.paloaltonetworks.com/services/solution-assurance) * [Successo del cliente](https://www.paloaltonetworks.com/services/customer-success) [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/logo-unit-42.svg) UNIT 42 RETAINER Creato su misura per soddisfare le esigenze della tua organizzazione, puoi scegliere di allocare ore di risorse riservate a una qualsiasi delle nostre offerte, inclusi i servizi proattivi di gestione del rischio informatico. Scopri come assicurarti l'accesso rapido al team di risposta agli incidenti Unit 42 di livello mondiale. Scopri di più](https://www.paloaltonetworks.it/unit42/retainer?ts=markdown) * Partners ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Partners Partner NextWave * [Comunità dei partner NextWave](https://www.paloaltonetworks.com/partners) * [Fornitori di servizi cloud](https://www.paloaltonetworks.com/partners/nextwave-for-csp) * [Integratori di sistemi globali](https://www.paloaltonetworks.com/partners/nextwave-for-gsi) * [Partner tecnologici](https://www.paloaltonetworks.com/partners/technology-partners) * [Fornitori di servizi](https://www.paloaltonetworks.com/partners/service-providers) * [Fornitori di soluzioni](https://www.paloaltonetworks.com/partners/nextwave-solution-providers) * [Fornitori di servizi di sicurezza gestiti (MSSP)](https://www.paloaltonetworks.com/partners/managed-security-service-providers) È ora di agire * [Accesso al portale](https://www.paloaltonetworks.com/partners/nextwave-partner-portal) * [Programma di servizi gestiti](https://www.paloaltonetworks.com/partners/managed-security-services-provider-program) * [Diventa un partner](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerregistration?type=becomepartner) * [Richiedi l'accesso](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerregistration?type=requestaccess) * [Trova un partner](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerlocator) [CYBERFORCE CYBERFORCE rappresenta l'1% dei migliori ingegneri partner affidabili per la propria competenza in materia di sicurezza. Scopri di più](https://www.paloaltonetworks.com/cyberforce) * Società ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Società Palo Alto Networks * [Chi siamo](https://www.paloaltonetworks.it/about-us?ts=markdown) * [Team dirigenziale](https://www.paloaltonetworks.com/about-us/management) * [Relazioni con gli investitori](https://investors.paloaltonetworks.com) * [Sedi](https://www.paloaltonetworks.com/about-us/locations) * [Etica e conformità](https://www.paloaltonetworks.com/company/ethics-and-compliance) * [Responsabilità d'impresa](https://www.paloaltonetworks.com/about-us/corporate-responsibility) * [Militari e veterani](https://jobs.paloaltonetworks.com/military) [Perché Palo Alto Networks?](https://www.paloaltonetworks.it/why-paloaltonetworks?ts=markdown) * [Sicurezza Precision AI](https://www.paloaltonetworks.it/precision-ai-security?ts=markdown) * [Il nostro approccio alla piattaforma](https://www.paloaltonetworks.it/why-paloaltonetworks/platformization?ts=markdown) * [Accelerazione della trasformazione della cybersecurity](https://www.paloaltonetworks.com/why-paloaltonetworks/nam-cxo-portfolio) * [Premi e riconoscimenti](https://www.paloaltonetworks.com/about-us/awards) * [Testimonianze di clienti](https://www.paloaltonetworks.it/customers?ts=markdown) * [Certificazioni globali](https://www.paloaltonetworks.com/legal-notices/trust-center/compliance) * [Programma Trust 360](https://www.paloaltonetworks.com/resources/whitepapers/trust-360) Opportunità di lavoro * [Panoramica](https://jobs.paloaltonetworks.com/) * [Cultura e vantaggi](https://jobs.paloaltonetworks.com/en/culture/) [Nominata da Newsweek come "uno degli ambienti di lavoro più amati" "Aziende considerate positivamente dai loro dipendenti" Scopri di più](https://www.paloaltonetworks.com/company/press/2021/palo-alto-networks-secures-top-ranking-on-newsweek-s-most-loved-workplaces-list-for-2021) * Altro ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Altro Risorse * [Blog](https://www.paloaltonetworks.com/blog/?lang=it) * [Blog di ricerca delle minacce di Unit 42](https://unit42.paloaltonetworks.com/) * [Community](https://www.paloaltonetworks.com/communities) * [Libreria di contenuti](https://www.paloaltonetworks.it/resources?ts=markdown) * [Cyberpedia](https://www.paloaltonetworks.it/cyberpedia?ts=markdown) * [Tech Insider](https://techinsider.paloaltonetworks.com/) * [Knowledge Base](https://knowledgebase.paloaltonetworks.com/) * [Palo Alto Networks TV](https://tv.paloaltonetworks.com/) * [Prospettive dei leader](https://www.paloaltonetworks.com/perspectives/) * [Cyber Perspectives Magazine](https://www.paloaltonetworks.com/cybersecurity-perspectives/cyber-perspectives-magazine) * [Sedi regionali di cloud](https://www.paloaltonetworks.it/products/regional-cloud-locations?ts=markdown) * [Documentazione tecnica](https://docs.paloaltonetworks.com/) * [Valutazione della condizione di sicurezza](https://www.paloaltonetworks.com/security-posture-assessment) * [Podcast Threat Vector](https://unit42.paloaltonetworks.com/unit-42-threat-vector-podcast/) Social * [LIVE Community](https://live.paloaltonetworks.com/) * [Eventi](https://events.paloaltonetworks.com/) * [Centro briefing di livello executive](https://www.paloaltonetworks.com/about-us/executive-briefing-program) * [Demo](https://www.paloaltonetworks.com/demos) * [Contattaci](https://www.paloaltonetworks.it/contact?ts=markdown) [Blog Aggiornamenti sulle tendenze e innovazioni più recenti forniti dalle principali aziende di sicurezza informatica a livello mondiale Ulteriori informazioni](https://www.paloaltonetworks.com/blog/) * IT ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Language * [USA (ENGLISH)](https://www.paloaltonetworks.com/) * [AUSTRALIA (ENGLISH)](https://www.paloaltonetworks.com.au) * [BRAZIL (PORTUGUÉS)](https://www.paloaltonetworks.com.br) * [CANADA (ENGLISH)](https://www.paloaltonetworks.ca) * [CHINA (简体中文)](https://www.paloaltonetworks.cn) * [FRANCE (FRANÇAIS)](https://www.paloaltonetworks.fr) * [GERMANY (DEUTSCH)](https://www.paloaltonetworks.de) * [INDIA (ENGLISH)](https://www.paloaltonetworks.in) * ITALY (ITALIANO) * [JAPAN (日本語)](https://www.paloaltonetworks.jp) * [KOREA (한국어)](https://www.paloaltonetworks.co.kr) * [LATIN AMERICA (ESPAÑOL)](https://www.paloaltonetworks.lat) * [MEXICO (ESPAÑOL)](https://www.paloaltonetworks.com.mx) * [SINGAPORE (ENGLISH)](https://www.paloaltonetworks.sg) * [SPAIN (ESPAÑOL)](https://www.paloaltonetworks.es) * [TAIWAN (繁體中文)](https://www.paloaltonetworks.tw) * [UK (ENGLISH)](https://www.paloaltonetworks.co.uk) * [Entre em contato conosco](https://www.paloaltonetworks.it/contact?ts=markdown) * [Recursos](https://www.paloaltonetworks.it/resources?ts=markdown) * [Obtenha suporte](https://support.paloaltonetworks.com/support) * [Sei sotto attacco?](https://start.paloaltonetworks.com/contact-unit42.html) * [Introdução](https://www.paloaltonetworks.com/get-started) Ricerca Close search modal [](https://www.paloaltonetworks.com/?ts=markdown) 1. [Cyberpedia](https://www.paloaltonetworks.it/cyberpedia?ts=markdown) 2. [AI-SPM](https://www.paloaltonetworks.it/cyberpedia/ai-security-posture-management-aispm?ts=markdown) 3. [Che cos'è l'AI Security Posture Management (AI-SPM)?](https://www.paloaltonetworks.it/cyberpedia/ai-security-posture-management-aispm?ts=markdown) Indice dei contenuti * [L'AI-SPM spiegato](#ai-spm) * [Perché l'AI-SPM è importante?](#why) * [In cosa si differenzia AI-SPM da CSPM?](#how) * [AI-SPM Vs. DSPM](#vs) * [AI-SPM all'interno di MLSecOps](#mlsecops) * [Domande frequenti su AI-SPM](#faq) # Che cos'è l'AI Security Posture Management (AI-SPM)? Indice dei contenuti * [L'AI-SPM spiegato](#ai-spm) * [Perché l'AI-SPM è importante?](#why) * [In cosa si differenzia AI-SPM da CSPM?](#how) * [AI-SPM Vs. DSPM](#vs) * [AI-SPM all'interno di MLSecOps](#mlsecops) * [Domande frequenti su AI-SPM](#faq) 1. L'AI-SPM spiegato * [1. L'AI-SPM spiegato](#ai-spm) * [2. Perché l'AI-SPM è importante?](#why) * [3. In cosa si differenzia AI-SPM da CSPM?](#how) * [4. AI-SPM Vs. DSPM](#vs) * [5. AI-SPM all'interno di MLSecOps](#mlsecops) * [6. Domande frequenti su AI-SPM](#faq) La gestione della postura di sicurezza dell'AI (AI-SPM) è un approccio completo per mantenere la sicurezza e l'integrità dei sistemi di [intelligenza artificiale (AI)](https://www.paloaltonetworks.it/cyberpedia/artificial-intelligence-ai?ts=markdown) e [apprendimento automatico (ML)](https://www.paloaltonetworks.it/cyberpedia/machine-learning-ml?ts=markdown) . Comporta il monitoraggio, la valutazione e il miglioramento continui della posizione di sicurezza dei modelli, dei dati e dell'infrastruttura dell'AI. L'AI-SPM comprende l'identificazione e la risoluzione delle vulnerabilità, delle configurazioni errate e dei rischi potenziali associati all'adozione dell'AI, oltre a garantire la conformità alle normative pertinenti in materia di privacy e sicurezza. Implementando l'AI-SPM, le organizzazioni possono proteggere in modo proattivo i loro sistemi AI dalle minacce, ridurre al minimo l'esposizione dei dati e mantenere l'affidabilità delle loro applicazioni AI. ## L'AI-SPM spiegato La gestione della postura di sicurezza AI (AI-SPM) è un componente vitale nei paesaggi della cybersecurity, dove l'intelligenza artificiale (AI) gioca un ruolo fondamentale. I sistemi AI, che comprendono modelli di apprendimento automatico, [grandi modelli linguistici (LLM)](https://www.paloaltonetworks.it/cyberpedia/large-language-models-llm?ts=markdown)e sistemi decisionali automatizzati, presentano vulnerabilità uniche e superfici di attacco. AI-SPM affronta questi aspetti fornendo meccanismi per la visibilità, la valutazione e la mitigazione dei rischi associati ai componenti AI all'interno degli ecosistemi tecnologici. ### Visibilità e scoperta La mancanza di un inventario dell'AI può portare a modelli di AI ombra, a violazioni della conformità e all'esfiltrazione di dati attraverso applicazioni alimentate dall'AI. AI-SPM consente alle organizzazioni di scoprire e mantenere un inventario di tutti i modelli AI utilizzati nei loro ambienti cloud, insieme alle risorse cloud associate, alle fonti di dati e alle pipeline di dati coinvolte nell'addestramento, nella messa a punto o nella messa a terra di questi modelli. ### Governance dei dati La legislazione incentrata sull'AI impone controlli rigorosi sull'utilizzo dell'AI e sui dati dei clienti immessi nelle applicazioni AI, richiedendo una [governance dell'AI](https://www.paloaltonetworks.it/cyberpedia/ai-governance?ts=markdown) più forte di quella attualmente praticata dalla maggior parte delle organizzazioni. AI-SPM ispeziona le fonti di dati utilizzate per l'addestramento e la messa a terra dei modelli AI per identificare e classificare i dati sensibili o regolamentati - come le [informazioni di identificazione personale (PII)](https://www.paloaltonetworks.it/cyberpedia/pii?ts=markdown) dei clienti - che potrebbero essere esposti attraverso gli output, i log o le interazioni dei modelli contaminati. ### Gestione del rischio AI-SPM consente alle organizzazioni di identificare le vulnerabilità e le configurazioni errate nella catena di fornitura dell'AI che potrebbero portare all' [esfiltrazione dei dati](https://www.paloaltonetworks.it/cyberpedia/data-exfiltration?ts=markdown) o all'accesso non autorizzato ai modelli e alle risorse dell'AI. La tecnologia mappa l'intera catena di fornitura dell'AI - dati di origine, dati di riferimento, librerie, API e pipeline che alimentano ogni modello. Quindi analizza questa catena di fornitura per identificare impostazioni improprie di [crittografia](https://www.paloaltonetworks.it/cyberpedia/data-encryption?ts=markdown), registrazione, autenticazione o autorizzazione. ### Monitoraggio e rilevamento in fase di esecuzione AI-SPM monitora continuamente le interazioni dell'utente, i prompt e gli input ai modelli AI (come i modelli linguistici di grandi dimensioni) per rilevare l'uso improprio, il sovraccarico dei prompt, i tentativi di accesso non autorizzato o le attività anomale che coinvolgono i modelli. Esamina le uscite e i registri dei modelli AI per identificare potenziali casi di esposizione di [dati sensibili](https://www.paloaltonetworks.it/cyberpedia/sensitive-data?ts=markdown) . ### Mitigazione del rischio e risposta Quando vengono rilevati incidenti di sicurezza ad alta priorità o violazioni di policy sui dati o sull'infrastruttura AI, AI-SPM consente flussi di lavoro di risposta rapida. Fornisce visibilità sul contesto e sulle parti interessate per la correzione dei rischi o delle configurazioni errate identificate. ### Governance e conformità Con l'aumento delle normative sull'utilizzo dell'AI e dei dati dei clienti, come il [GDPR](https://www.paloaltonetworks.it/cyberpedia/gdpr-compliance?ts=markdown)e il [quadro di Gestione dei Rischi dell'Intelligenza Artificiale](https://www.paloaltonetworks.it/cyberpedia/nist-ai-risk-management-framework?ts=markdown)del NIST, AI-SPM aiuta le organizzazioni a far rispettare le politiche, a mantenere i percorsi di audit - compresa la tracciabilità del lignaggio dei modelli, delle approvazioni e dei criteri di accettazione dei rischi - e a raggiungere la conformità, mappando le identità umane e meccaniche con accesso ai dati sensibili o ai modelli di AI. ## Perché l'AI-SPM è importante? La distribuzione di sistemi di intelligenza artificiale nelle aziende e nelle infrastrutture critiche comporta una maggiore superficie di attacco che le misure di sicurezza tradizionali non sono in grado di proteggere. Oltre alle applicazioni alimentate dall'AI che richiedono alle organizzazioni di archiviare e conservare più dati (implementando al contempo nuove pipeline e infrastrutture), i vettori di attacco dell'AI mirano a caratteristiche uniche degli algoritmi di AI e includono una classe distinta di minacce. Uno di questi vettori di attacco è l'avvelenamento dei dati, in cui gli attori malintenzionati iniettano campioni accuratamente elaborati nei dati di addestramento, inducendo il modello AI ad apprendere modelli distorti o dannosi. Gli attacchi avversari, invece, comportano sottili disturbi ai dati di ingresso che possono indurre il sistema AI a fare previsioni o decisioni errate, potenzialmente con gravi conseguenze. Anche l'estrazione del modello - quando un aggressore tenta di rubare il modello proprietario di un'organizzazione attraverso un accesso non autorizzato o sondando le uscite del modello per ricostruire i suoi parametri interni - è preoccupante. Un attacco di questo tipo potrebbe comportare un furto di proprietà intellettuale e un potenziale uso improprio del modello rubato per scopi malevoli. AI-SPM è la risposta di sicurezza all'adozione dell'AI. Fornendo alle organizzazioni gli strumenti per anticipare e rispondere alle vulnerabilità e agli attacchi specifici dell'AI, AI-SPM supporta un livello di sicurezza proattivo, dando alle organizzazioni la capacità di gestire i rischi nella pipeline dell'AI. Dalla fase iniziale di progettazione fino alla distribuzione e all'uso operativo, AI-SPM assicura che la [sicurezza dell'IA](https://www.paloaltonetworks.it/cyberpedia/ai-security?ts=markdown) sia parte integrante del [ciclo di vita dello sviluppo dell'IA](https://www.paloaltonetworks.it/cyberpedia/ai-development-lifecycle?ts=markdown). ## In cosa si differenzia AI-SPM da CSPM? [La gestione della postura di sicurezza del cloud (CSPM)](https://www.paloaltonetworks.it/cyberpedia/what-is-cloud-security-posture-management?ts=markdown) e l'AI-SPM sono complementari, ma si concentrano sulla gestione della postura di sicurezza in domini diversi, rispettivamente l'infrastruttura cloud e i sistemi AI/ML. Il CSPM si concentra sulla valutazione e sulla mitigazione dei rischi negli ambienti cloud pubblici, come AWS, Azure e GCP. I suoi obiettivi principali sono garantire che le risorse cloud siano configurate correttamente secondo le best practice di sicurezza, rilevare le configurazioni errate che creano vulnerabilità e imporre la conformità alle politiche normative. Le capacità principali del CSPM includono: * Individuazione e inventario continui di tutti gli asset cloud (calcolo, archiviazione, rete, ecc.). * Valutazione delle regole dei gruppi di sicurezza, delle politiche IAM e delle impostazioni di crittografia rispetto ai benchmark. * Monitoraggio delle modifiche alla configurazione che introducono nuovi rischi * Correzione automatica delle configurazioni insicure Al contrario, la gestione della postura di sicurezza dell'AI si concentra sulle considerazioni di sicurezza uniche dei sistemi di AI e ML attraverso il loro ciclo di vita: dati, formazione dei modelli, distribuzione e operazioni. AI-SPM incorpora controlli di sicurezza specializzati su misura per le risorse AI, come i dati di formazione, i modelli e i notebook. Mantiene una base di conoscenze che traccia le minacce dell'intelligenza artificiale e le contromisure applicabili. Per mitigare i rischi dei dati, l'AI-SPM incorpora il rilevamento e la prevenzione dell'avvelenamento e dell'inquinamento dei dati, dove le alterazioni dannose dei dati di formazione vengono identificate e neutralizzate. Sfrutta anche le tecniche di privacy differenziale, consentendo alle organizzazioni di condividere i dati in modo sicuro senza esporre informazioni sensibili. Per proteggere la catena di fornitura dei modelli, AI-SPM si affida a un rigoroso controllo delle versioni e alla tracciabilità della provenienza per gestire le iterazioni e la storia dei modelli. A ciò si aggiungono la crittografia e i [controlli di accesso](https://www.paloaltonetworks.it/cyberpedia/access-control?ts=markdown) che proteggono la riservatezza dei modelli, oltre a test specializzati progettati per contrastare gli attacchi di estrazione del modello e di inferenza di appartenenza. La protezione dei sistemi AI e ML dal vivo include il monitoraggio delle perturbazioni di input avversarie, ossia gli sforzi per ingannare i modelli AI attraverso input distorti. L'indurimento del modello di runtime viene impiegato per aumentare la resilienza dei sistemi di intelligenza artificiale contro questi attacchi. AI-SPM incorpora controlli di sicurezza specializzati su misura per gli asset dell'AI, come i dati di formazione, i modelli, i notebook, oltre a modelli di minaccia specifici per l'AI per rischi come gli attacchi avversari, il furto di modelli, ecc. Mantiene una base di conoscenze che mappa le minacce dell'AI con le contromisure applicabili. Mentre il CSPM si concentra sulla postura di sicurezza dell'infrastruttura cloud, l'AI-SPM regola la postura di sicurezza dei sistemi AI/ML che possono essere distribuiti su cloud o locali. Man mano che l'AI viene incorporata negli stack cloud, le due discipline devono essere sincronizzate per una gestione completa del [rischio](https://www.paloaltonetworks.it/cyberpedia/data-risk-assessment?ts=markdown). Ad esempio, CSPM assicura che le risorse cloud che ospitano i carichi di lavoro AI abbiano configurazioni corrette, mentre AI-SPM convalida se i modelli e le pipeline dei dati distribuiti hanno un adeguato rafforzamento della sicurezza. Insieme, forniscono visibilità della postura di sicurezza AI full-stack e mitigazione dei rischi. ## AI-SPM Vs. DSPM [La sicurezza dei dati e la gestione della privacy (DSPM)](https://www.paloaltonetworks.it/cyberpedia/what-is-dspm?ts=markdown) e l'AI-SPM sono domini distinti ma complementari all'interno del campo più ampio della gestione della sicurezza e della privacy. Il DSPM si concentra sulla protezione dei dati a riposo, in transito e durante l'elaborazione, garantendone la riservatezza, l'integrità e la disponibilità. Gli aspetti chiave del DSPM includono la crittografia, il controllo degli accessi, la [classificazione dei dati](https://www.paloaltonetworks.it/cyberpedia/data-classification?ts=markdown)e la. La gestione della postura di sicurezza dell'AI si occupa di proteggere i modelli, gli algoritmi e i sistemi dell'AI. Affronta le sfide uniche poste dalle tecnologie AI, come gli attacchi avversari, l'avvelenamento dei dati, il furto di modelli e i pregiudizi. AI-SPM comprende la formazione sicura dei modelli, le tecniche di AI che preservano la privacy, la difesa dagli attacchi e la spiegabilità. Sebbene DSPM e AI-SPM affrontino aspetti diversi della sicurezza e della [privacy dei dati](https://www.paloaltonetworks.it/cyberpedia/data-privacy?ts=markdown), funzionano insieme per creare una strategia di sicurezza completa e olistica. Il DSPM fornisce una base per la protezione dei dati, mentre l'AI-SPM garantisce l'uso sicuro e responsabile delle tecnologie AI che elaborano e analizzano i dati. L'integrazione di entrambi i domini consente alle organizzazioni di salvaguardare sia i loro asset di dati che i loro sistemi di AI, riducendo al minimo i rischi e garantendo la [conformità dei dati](https://www.paloaltonetworks.it/cyberpedia/data-compliance?ts=markdown) alle normative pertinenti. ## AI-SPM all'interno di MLSecOps La gestione della postura di sicurezza dell'AI è una pietra miliare delle operazioni di sicurezza dell'apprendimento automatico (MLSecOps), le pratiche e gli strumenti utilizzati per proteggere il ciclo di vita del ML. MLSecOps comprende tutto, dalla protezione dei dati utilizzati per addestrare i modelli al monitoraggio dei modelli distribuiti per individuare eventuali vulnerabilità, con l'obiettivo di garantire l'integrità, l'affidabilità e l'equità dei sistemi di ML durante il loro sviluppo e funzionamento. Nell'ambito di MLSecOps, AI-SPM si concentra sulle esigenze specifiche di sicurezza dei sistemi AI, che spesso comportano modelli e funzionalità più complessi rispetto al ML tradizionale. Questa complessità introduce sfide di sicurezza uniche che AI-SPM affronta: [sicurezza dei dati](https://www.paloaltonetworks.it/cyberpedia/what-is-data-security?ts=markdown), sicurezza dei modelli, monitoraggio dei modelli e conformità normativa. E i vantaggi dell'AI-SPM nell'ambito di MLSecOps sono indiscutibili: * **Postura di sicurezza avanzata**: Affrontando in modo proattivo i rischi di sicurezza specifici dell'AI, AI-SPM rafforza il livello di sicurezza generale delle pipeline ML e dei modelli distribuiti dall'organizzazione. * **Migliore fiducia nell'IA**: La sicurezza dell'AI favorisce la fiducia nei sistemi di AI, rendendoli più affidabili e più facili da integrare nei processi aziendali. * **Innovazione più rapida e sicura**: AI-SPM facilita un ambiente sicuro per lo sviluppo dell'AI, consentendo alle organizzazioni di innovare con fiducia con le tecnologie AI. ## Domande frequenti su AI-SPM ### Che cos'è la messa a terra dei modelli di intelligenza artificiale ed è diversa dalla loro formazione? La messa a terra e l'addestramento sono due aspetti distinti dello sviluppo di modelli di IA, anche se entrambi contribuiscono alla funzionalità e all'efficacia di questi sistemi. La messa a terra comporta il collegamento delle operazioni dell'AI, come la comprensione del linguaggio o i processi decisionali, ai contesti e ai dati del mondo reale. Si tratta di assicurarsi che i risultati di un modello di AI siano applicabili e significativi in un contesto pratico. Per esempio, la messa a terra di un modello linguistico comporta l'insegnamento a collegare le parole con gli oggetti, le azioni o i concetti corrispondenti del mondo reale. Questo entra in gioco con compiti come il riconoscimento delle immagini, dove il modello deve associare i pixel di un'immagine con etichette identificabili che hanno controparti tangibili. L'addestramento si riferisce al processo di insegnare a un modello di intelligenza artificiale a fare previsioni o decisioni alimentandolo con i dati. Durante l'addestramento, il modello impara a riconoscere i modelli, a creare connessioni e a migliorare essenzialmente la sua precisione nel tempo. Ciò si verifica quando vari algoritmi regolano i parametri interni del modello, spesso esponendolo a grandi insiemi di dati in cui sono noti gli input e gli output desiderati (etichette). Il processo migliora la capacità del modello di generalizzare dai dati di addestramento a nuove situazioni non viste. La differenza principale tra la messa a terra e l'addestramento sta nell'attenzione e nell'applicazione: * **Grounding** è garantire la rilevanza per il mondo reale e l'utilità pratica, creando un ponte tra i calcoli astratti dell'IA e le applicazioni concrete del mondo reale. * **L'addestramento** comporta metodologie tecniche per ottimizzare le prestazioni del modello, concentrandosi principalmente sull'accuratezza e sull'efficienza nell'ambito di compiti definiti. ### Che cos'è la contaminazione dei modelli? La contaminazione del modello si riferisce all'addestramento involontario di modelli AI su dati sensibili, che potrebbero esporre o [perdere](https://www.paloaltonetworks.it/cyberpedia/data-leak?ts=markdown) i [dati sensibili](https://www.paloaltonetworks.it/cyberpedia/sensitive-data?ts=markdown) attraverso i suoi output, i log o le interazioni, una volta distribuiti e utilizzati per attività di inferenza o generazione. L'AI-SPM mira a rilevare e prevenire la contaminazione. ### Il CSPM e l'AI-SPM sono entrambi necessari per la governance della sicurezza dell'AI? CSPM e AI-SPM sono aree di gestione del rischio allineate ma distinte: la prima si concentra sulla postura dell'infrastruttura cloud, la seconda sulla protezione del ciclo di vita del sistema AI attraverso protezioni dei dati, del modello e del runtime. Con la crescita dell'adozione dell'AI, l'implementazione di CSPM e AI-SPM in modo coordinato sarà fondamentale per una governance completa della sicurezza dell'AI. ### Che ruolo hanno la visibilità e il controllo nella gestione della postura di sicurezza dell'AI? La visibilità e il controllo sono componenti cruciali della gestione della postura di sicurezza dell'AI. Per gestire efficacemente la postura di sicurezza dei sistemi AI e ML, le organizzazioni devono avere una chiara comprensione dei loro modelli AI, dei dati utilizzati in questi modelli e dell'infrastruttura associata. Ciò include la visibilità della catena di approvvigionamento dell'AI, delle pipeline dei dati e degli ambienti cloud. Con la visibilità, le organizzazioni possono identificare potenziali rischi, configurazioni errate e problemi di conformità. Il controllo consente alle organizzazioni di intraprendere azioni correttive, come l'implementazione di politiche di sicurezza, la correzione delle vulnerabilità e la gestione dell'accesso alle risorse dell'AI. . ### Che cos'è un AIBOM? Una distinta base dell'AI (AIBOM) è l'inventario principale che cattura tutti i componenti e le fonti di dati che entrano nella costruzione e nel funzionamento di un sistema o modello di AI. Fornendo la necessaria trasparenza end-to-end per governare il ciclo di vita dell'AI, l'AIBOM apre la visibilità su: * I dati di addestramento utilizzati per costruire il modello AI * Qualsiasi modello o libreria preaddestrata sfruttata * Fonti di dati esterne utilizzate per la messa a terra o il reperimento di conoscenze. * Gli algoritmi, i framework e l'infrastruttura utilizzati * API e pipeline dei dati integrate con il modello. * Informazioni sull'identità di persone/servizi che hanno accesso al modello. Pensi all'AIBOM come a una [cartella dei materiali del software (SBOM)](https://www.paloaltonetworks.it/cyberpedia/what-is-software-bill-materials-sbom?ts=markdown) , ma focalizzata sulla mappatura degli elementi costitutivi, sia dati che operativi, che compongono un sistema di AI. ### Che cos'è la spiegabilità? Nel contesto della sicurezza dell'AI, la spiegabilità è la capacità di comprendere e spiegare il ragionamento, il processo decisionale e il comportamento dei modelli AI/ML, soprattutto quando si tratta di identificare potenziali rischi o vulnerabilità della sicurezza. Gli aspetti chiave della spiegabilità includono: * Essere in grado di interpretare il modo in cui un modello di AI arriva ai suoi risultati o alle sue decisioni in base ai dati di ingresso. Questo aiuta ad analizzare se il modello si comporta come previsto o se ci sono anomalie che potrebbero indicare problemi di sicurezza. * Avere visibilità sul funzionamento interno, sui parametri e sulla logica del modello di AI, anziché trattarlo come una scatola nera. Questa trasparenza aiuta a verificare che il modello non presenti potenziali vulnerabilità o pregiudizi. * La capacità di tracciare le fonti di dati, gli algoritmi e i processi coinvolti nello sviluppo e nel funzionamento di un modello di AI. Questo conferisce spiegabilità sull'intera catena di fornitura dell'AI. * Tecniche per convalidare e spiegare il comportamento dei modelli di IA in diverse condizioni, casi limite o input avversari per scoprire le debolezze della sicurezza. * Sempre più spesso, le normative sull'AI richiedono la spiegabilità come parte delle misure di responsabilità per capire se i modelli si comportano in modo etico, equo e senza pregiudizi. La spiegabilità è parte integrante del monitoraggio dei modelli di IA per individuare anomalie, derive e compromissioni del runtime, per indagare le cause principali degli incidenti legati all'IA e per convalidare i modelli di IA rispetto alle politiche di sicurezza prima della distribuzione. ### Cosa sono i notebook nel flusso di sviluppo AI/ML? I notebook si riferiscono ad ambienti di codifica interattivi come Jupyter Notebooks o Google Colab Notebooks. Consentono ai data scientist e agli ingegneri ML di scrivere ed eseguire il codice per l'esplorazione dei dati, l'addestramento dei modelli, i test e la sperimentazione in un unico documento che combina codice live, visualizzazioni, testo narrativo e output ricco. Facilitando un processo di sviluppo del modello iterativo e collaborativo, i notebook, tramite il codice che contengono, definiscono le pipeline dei dati, le fasi di preelaborazione, le architetture del modello, gli iperparametri, ecc. Dal punto di vista della sicurezza dell'AI, i notebook sono risorse importanti che necessitano di una governance perché: 1. Spesso contengono o accedono a set di dati di formazione sensibili. 2. Il codice del modello e i parametri rappresentano una proprietà intellettuale riservata. 3. I notebook consentono di testare i modelli contro campioni o attacchi avversari. 4. I notebook condivisi possono potenzialmente far trapelare dati privati o dettagli del modello. ### Che cos'è la catena di approvvigionamento dell'AI? La catena di fornitura dell'AI si riferisce al processo end-to-end di sviluppo, distribuzione e manutenzione dei modelli di AI - compresa la raccolta dei dati, la formazione dei modelli e l'integrazione nelle applicazioni. Oltre alle varie fasi coinvolte, la catena di approvvigionamento dell'AI comprende fonti di dati, pipeline dei dati, librerie di modelli, API e infrastruttura cloud. La gestione della catena di fornitura dell'AI è essenziale per garantire la sicurezza e l'integrità dei modelli di AI e per proteggere i dati sensibili dall'esposizione o dall'uso improprio. ### Quali sono i vettori di attacco AI più comuni? I vettori di attacco AI sono i vari modi in cui gli attori di minacce possono sfruttare le vulnerabilità nei sistemi AI e ML per comprometterne la sicurezza o la funzionalità. Alcuni vettori di attacco AI comuni includono: * **Intossicazione da dati**: Manipolare i dati di addestramento per introdurre pregiudizi o errori nel modello AI, facendogli produrre risultati errati o dannosi. * **Inversione del modello**: Usare l'output del modello di AI per dedurre informazioni sensibili sui dati di addestramento o per effettuare il reverse-engineering del modello. * **Esempi di avversità**: Creare dati di input che vengono sottilmente alterati per far sì che il modello AI produca risultati errati o dannosi, pur apparendo normale agli osservatori umani. * **Furto di modelli**: Rubare il modello di AI o i suoi parametri per creare una replica da utilizzare in modo non autorizzato o per identificare potenziali vulnerabilità. * **Attacchi alle infrastrutture**: Sfruttare le vulnerabilità negli ambienti cloud o nelle pipeline dei dati che supportano i sistemi AI per ottenere un accesso non autorizzato, interrompere le operazioni o esfiltrare i dati. ### In che modo l'intelligenza artificiale e l'apprendimento automatico contribuiscono ai punti ciechi della sicurezza? L'intelligenza artificiale e l'apprendimento automatico possono creare punti ciechi nella sicurezza, a causa della natura complessa dei sistemi AI, del ritmo rapido di adozione e della grande quantità di dati coinvolti. Man mano che le organizzazioni distribuiscono modelli di AI e ML in diversi ambienti cloud, gli strumenti e gli approcci di sicurezza tradizionali potrebbero non affrontare adeguatamente i rischi unici associati a questi modelli. Ad esempio, gli attacchi di avvelenamento dei dati o gli esempi avversari possono sfruttare il comportamento del modello AI, portando a risultati compromessi. Inoltre, la natura dinamica e interconnessa dei sistemi di IA può rendere difficile tracciare e proteggere i dati, con conseguente potenziale esposizione dei dati e problemi di conformità. ### Che cos'è la corruzione dei modelli e l'abuso dei modelli di AI? La corruzione del modello si riferisce al processo di alterazione o manomissione dei parametri, dei dati di addestramento o della funzionalità di un modello AI, che può portare a prestazioni compromesse o a risultati dannosi. Gli aggressori possono corrompere i modelli attraverso l'avvelenamento dei dati, esempi avversari o altre tecniche che manipolano il comportamento del modello. L'uso improprio dei modelli di AI, invece, si verifica quando gli attori di minacce o gli utenti non autorizzati sfruttano i modelli di AI per scopi dannosi, come la generazione di deepfakes, l'abilitazione di attacchi automatizzati o l'elusione delle misure di sicurezza. Sia la corruzione che l'uso improprio dei modelli possono minare l'integrità, la sicurezza e l'affidabilità dei sistemi di IA. ### In che modo l'adozione dell'AI influisce sugli ambienti complessi e sulla visibilità unificata? L'adozione dell'AI introduce nuove complessità negli ambienti IT, in quanto le organizzazioni devono distribuire e gestire diversi modelli di AI, pipeline dei dati e risorse cloud. Questa maggiore complessità può rendere difficile mantenere una visibilità unificata sull'intero panorama dell'AI, portando a potenziali punti ciechi della sicurezza e ad un aumento dei rischi. Gli strumenti di sicurezza tradizionali potrebbero non essere adatti ad affrontare i rischi e le sfide specifiche associate ai sistemi AI, lasciando le organizzazioni vulnerabili ai vettori di attacco specifici dell'AI. Di conseguenza, le organizzazioni devono adottare soluzioni di sicurezza avanzate progettate specificamente per i sistemi AI e ML, per garantire una visibilità e un controllo completi. ### Che cos'è la dispersione dei modelli e come si relaziona con l'inventario dell'AI? La dispersione dei modelli si verifica quando le organizzazioni sviluppano e distribuiscono un gran numero di modelli di AI senza una chiara comprensione del loro inventario, del loro utilizzo e dei rischi associati. Man mano che l'adozione dell'AI cresce, le organizzazioni possono sperimentare vari modelli, portando a una proliferazione di sistemi di AI in diversi ambienti cloud. Questo può portare a modelli di AI ombra, ossia modelli che mancano di documentazione, governance e controlli di sicurezza adeguati. L'espansione del modello può contribuire alle violazioni della conformità, all'esfiltrazione dei dati e all'aumento della superficie di attacco. Per affrontare la dispersione dei modelli, le organizzazioni devono mantenere un inventario AI completo, che includa il monitoraggio e la gestione di tutti i modelli AI, dei dati associati e delle risorse cloud, per garantire una governance e una sicurezza adeguate. ### Cosa sono i modelli AI ombra e come contribuiscono alle violazioni della conformità e all'esfiltrazione dei dati? I modelli di AI ombra sono sistemi di AI che non dispongono di una documentazione adeguata, di una governance e di controlli di sicurezza, spesso derivanti da una dispersione dei modelli e da processi di sviluppo decentralizzati. Questi modelli possono essere distribuiti senza la conoscenza o l'approvazione dei team addetti alla sicurezza, rappresentando un rischio significativo per l'organizzazione. I modelli Shadow AI possono contribuire alle violazioni della conformità elaborando dati sensibili senza rispettare le normative sulla privacy o le politiche di sicurezza stabilite. Inoltre, la mancanza di visibilità e di controllo sui modelli di AI ombra può aumentare la probabilità di esfiltrazione dei dati, in quanto gli aggressori possono sfruttare le vulnerabilità di questi sistemi mal gestiti per accedere e rubare informazioni sensibili. ### In che modo le applicazioni alimentate dall'AI influenzano le normative sulla governance e sulla privacy? Le applicazioni alimentate dall'AI introducono nuove sfide per la governance e le normative sulla privacy, in quanto elaborano grandi quantità di dati e coinvolgono sistemi complessi e interconnessi. La conformità alle normative sulla privacy, come il [GDPR](https://www.paloaltonetworks.it/cyberpedia/gdpr-compliance?ts=markdown) e il [CCPA](https://www.paloaltonetworks.it/cyberpedia/ccpa?ts=markdown), richiede alle organizzazioni di proteggere i dati sensibili, di mantenere la trasparenza nel trattamento dei dati e di fornire agli utenti il controllo sulle loro informazioni. Le applicazioni alimentate dall'AI possono complicare questi requisiti a causa della natura dinamica dei modelli AI, del potenziale di esposizione involontaria dei dati e della difficoltà di tracciare i dati su più sistemi e ambienti cloud. Di conseguenza, le organizzazioni devono adottare solide pratiche di governance dei dati e misure di sicurezza specifiche per l'AI, per garantire la conformità e proteggere la privacy degli utenti. ### Qual è l'importanza della legislazione incentrata sull'AI e dei controlli rigorosi nella gestione dei dati dei clienti? Una legislazione incentrata sull'AI e controlli rigorosi sono fondamentali per garantire che le organizzazioni gestiscano i dati dei clienti in modo responsabile ed etico nel contesto dell'AI e dei sistemi di apprendimento automatico. Questi regolamenti mirano a stabilire degli standard per la trasparenza, l'equità e la responsabilità dei sistemi di IA, affrontando anche i rischi e le sfide uniche associate alle applicazioni alimentate dall'IA. Aderendo alla legislazione incentrata sull'AI e implementando controlli rigorosi, le organizzazioni possono prevenire l'uso improprio dei dati dei clienti, mitigare i potenziali pregiudizi nei modelli di AI e mantenere la fiducia dei clienti e degli stakeholder. Inoltre, la conformità a queste normative aiuta le organizzazioni ad evitare multe costose, danni alla reputazione e potenziali conseguenze legali associate alle violazioni della privacy e alla gestione impropria dei dati. ### Qual è l'importanza dello sviluppo del modello, della formazione e della coerenza delle politiche nella gestione della postura di sicurezza dell'IA? Assicurare un solido sviluppo del modello, una formazione completa e la coerenza delle politiche è fondamentale per la gestione della postura di sicurezza dell'IA. Lo sviluppo sicuro del modello riduce al minimo le vulnerabilità e i rischi, mentre i processi di formazione accurati aiutano i modelli ad apprendere da dati accurati e imparziali, riducendo la probabilità di risultati indesiderati o dannosi. La coerenza delle politiche applica le politiche e gli standard di sicurezza in modo uniforme ai modelli di AI, ai dati e all'infrastruttura, consentendo alle organizzazioni di mantenere una solida posizione di sicurezza e di affrontare le minacce in modo efficace. Insieme, questi aspetti costituiscono la base per un ambiente AI sicuro e affidabile. ### Come si possono proteggere le informazioni sensibili all'interno dei modelli di AI e della catena di fornitura dell'AI? Per proteggere le informazioni sensibili all'interno dei modelli di AI e della catena di fornitura dell'AI, le organizzazioni devono implementare solide pratiche di sicurezza dei dati e misure di sicurezza specifiche per l'AI. Le strategie chiave includono l'identificazione e la categorizzazione dei dati sensibili, l'implementazione di controlli di accesso rigorosi, la crittografia dei dati a riposo e in transito, il monitoraggio continuo dei modelli di AI e delle pipeline dei dati e la conformità alle normative sulla privacy e alle politiche di sicurezza pertinenti. Queste misure creano un ambiente sicuro che salvaguarda i dati sensibili da accessi non autorizzati e abusi. ### Quali sono le vulnerabilità e le configurazioni errate comuni nei modelli di AI e nelle pipeline dei dati? I modelli di AI e le pipeline dei dati possono essere soggetti a vulnerabilità e configurazioni errate, come l'archiviazione insicura dei dati, i meccanismi di autenticazione e autorizzazione inadeguati, le risorse cloud configurate in modo errato, il trasferimento dei dati non sicuro e il monitoraggio e la registrazione insufficienti. Questi problemi possono esporre dati sensibili, consentire l'accesso non autorizzato ai modelli di AI e alle pipeline di dati e ostacolare il rilevamento di incidenti o anomalie di sicurezza. Affrontare queste vulnerabilità e configurazioni errate è essenziale per mantenere una solida postura di sicurezza dell'AI e proteggere le informazioni preziose. ### In che modo le interazioni degli utenti con i modelli di intelligenza artificiale contribuiscono ai potenziali rischi per la sicurezza? Le interazioni degli utenti con i modelli di IA possono introdurre rischi per la sicurezza, in quanto potrebbero inavvertitamente esporre informazioni sensibili, iniettare input dannosi o sfruttare le vulnerabilità del sistema di IA. Controlli di accesso insufficienti, autenticazione debole o convalida inadeguata degli input possono portare all'accesso non autorizzato o all'uso improprio dei modelli AI. Inoltre, gli utenti possono fornire involontariamente dati distorti o fuorvianti durante l'addestramento del modello, dando luogo a risultati indesiderati o dannosi. Per mitigare questi rischi, le organizzazioni devono implementare misure di sicurezza solide, tra cui i controlli di accesso, la convalida degli input e il monitoraggio continuo delle interazioni degli utenti. ### Cosa costituisce un'attività anomala nei modelli di AI e come può essere rilevata? L'attività anomala nei modelli di AI può includere cambiamenti inaspettati nel comportamento del modello, modelli di accesso ai dati insoliti, modifiche non autorizzate o segni di manomissione esterna. Il rilevamento di tali attività richiede un monitoraggio continuo dei modelli di AI, delle pipeline dei dati e dell'infrastruttura associata. L'implementazione di tecniche di rilevamento delle anomalie, come l'analisi statistica, gli algoritmi di apprendimento automatico o i sistemi basati su regole, può aiutare a identificare le deviazioni dal comportamento normale. Inoltre, le organizzazioni dovrebbero stabilire delle linee di base per le prestazioni tipiche del modello e le interazioni degli utenti, per facilitare il rilevamento di attività anomale e di potenziali minacce alla sicurezza. ### In che modo la gestione della postura di sicurezza dell'AI può monitorare e proteggere i dati sensibili negli output dei modelli? La gestione della postura di sicurezza dell'AI può monitorare e proteggere i dati sensibili negli output dei modelli, implementando una combinazione di misure di sicurezza incentrate sui dati e processi di convalida degli output. Le misure di sicurezza incentrate sui dati, come la classificazione dei dati, la crittografia e i controlli di accesso, assicurano che le informazioni sensibili contenute negli output del modello siano adeguatamente protette. I processi di convalida dell'output, tra cui l'analisi della correlazione input-output, la verifica dei risultati e il rilevamento delle anomalie, aiutano a identificare e a prevenire la divulgazione di dati sensibili o di conseguenze indesiderate. Il monitoraggio continuo delle prestazioni del modello di intelligenza artificiale e delle interazioni con gli utenti gioca un ruolo cruciale nella salvaguardia dei dati sensibili contenuti nei risultati del modello. ### In che modo la crittografia, la registrazione, la conservazione, l'autenticazione e l'autorizzazione influiscono sulla sicurezza dell'IA? La crittografia, la registrazione, la conservazione, l'autenticazione e l'autorizzazione svolgono ruoli cruciali nel mantenere la sicurezza dell'AI, salvaguardando la riservatezza, l'integrità e la disponibilità dei modelli e dei dati dell'AI. La crittografia impedisce l'accesso non autorizzato e le violazioni dei dati, proteggendo i dati sensibili a riposo e in transito. La registrazione tiene traccia delle attività del modello AI e delle operazioni della pipeline dei dati, facilitando il rilevamento e l'indagine degli incidenti di sicurezza. Le politiche di conservazione gestiscono la durata dell'archiviazione dei dati, assicurando uno smaltimento sicuro quando non sono più necessari. L'autenticazione verifica l'identità degli utenti e dei sistemi che accedono ai modelli e ai dati dell'AI, mentre l'autorizzazione applica i controlli di accesso e i permessi per impedire l'accesso non autorizzato o l'uso improprio. Collettivamente, queste misure contribuiscono a una solida strategia di sicurezza dell'AI. ### Qual è il ruolo del rilevamento e della risposta in tempo reale nella prevenzione degli incidenti di sicurezza ad alta priorità? Il rilevamento e la risposta in tempo reale svolgono un ruolo fondamentale nella prevenzione degli incidenti di sicurezza ad alta priorità, consentendo alle organizzazioni di identificare e affrontare rapidamente potenziali minacce, vulnerabilità e anomalie. Monitorando continuamente i modelli di AI, le pipeline dei dati e l'infrastruttura associata, i sistemi di rilevamento in tempo reale possono rilevare tempestivamente attività anomale, tentativi di accesso non autorizzati o segni di manomissione esterna. Le capacità di risposta rapida, comprese le misure di riparazione automatizzate e i piani di risposta agli incidenti, consentono alle organizzazioni di mitigare efficacemente i rischi per la sicurezza, ridurre al minimo i danni potenziali e mantenere l'affidabilità dei loro sistemi di IA. Contenuti correlati [AI-SPM garantisce la sicurezza e la conformità delle applicazioni AI. Scopra la scoperta e l'inventario dei modelli AI, la prevenzione dell'esposizione dei dati e l'analisi della postura e del rischio in questa scheda tecnica AI-SPM.](https://www.paloaltonetworks.it/resources/datasheets/aispm-secure-ai-applications?ts=markdown) [Protezione del paesaggio dei dati con DSPM e DDR Rimanga al passo con i rischi di sicurezza dei dati. Scopra come la gestione della postura di sicurezza dei dati (DSPM) con il rilevamento e la risposta dei dati (DDR) colma le lac...](https://www.paloaltonetworks.com/resources/guides/dspm-ddr-big-guide) [AI-SPM: Sicurezza e conformità per le app alimentate dall'AI Prisma Cloud AI-SPM affronta le sfide uniche della distribuzione di AI e Gen AI in scala, aiutando a ridurre i rischi di sicurezza e conformità.](https://www.paloaltonetworks.com/blog/prisma-cloud/ai-spm/) [Gestione della postura di sicurezza per l'intelligenza artificiale Scopra come proteggere e controllare la sua infrastruttura AI, l'utilizzo e i dati con Prisma Cloud AI-SPM.](https://www.paloaltonetworks.it/prisma/cloud/ai-spm?ts=markdown) ![Share page on facebook](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/facebook-circular-icon.svg) ![Share page on linkedin](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/linkedin-circular-icon.svg) [![Share page by an email](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/email-circular-icon.svg)](mailto:?subject=Che%20cos%27%C3%A8%20l%27AI%20Security%20Posture%20Management%20%28AI-SPM%29%3F&body=Scopra%20la%20gestione%20della%20postura%20di%20sicurezza%20dell%27AI%20%28AI-SPM%29%2C%20la%20sua%20importanza%2C%20le%20differenze%20rispetto%20a%20CSPM%20e%20DSPM%20e%20il%20suo%20ruolo%20nello%20sviluppo%20delle%20applicazioni%20e%20nella%20sicurezza%20dell%27AI.%20at%20https%3A//www.paloaltonetworks.com/cyberpedia/ai-security-posture-management-aispm) Torna all'inizio {#footer} ## Prodotti e servizi * [Piattaforma di sicurezza di rete basata su AI](https://www.paloaltonetworks.it/network-security?ts=markdown) * [AI sicura sin dalla progettazione](https://www.paloaltonetworks.it/precision-ai-security/secure-ai-by-design?ts=markdown) * [Prisma AIRS](https://www.paloaltonetworks.it/prisma/prisma-ai-runtime-security?ts=markdown) * [Sicurezza accesso AI](https://www.paloaltonetworks.it/sase/ai-access-security?ts=markdown) * [Servizi di sicurezza basati su cloud](https://www.paloaltonetworks.it/network-security/security-subscriptions?ts=markdown) * [Prevenzione avanzata delle minacce](https://www.paloaltonetworks.it/network-security/advanced-threat-prevention?ts=markdown) * [URL Filtering avanzato](https://www.paloaltonetworks.it/network-security/advanced-url-filtering?ts=markdown) * [WildFire avanzato](https://www.paloaltonetworks.it/network-security/advanced-wildfire?ts=markdown) * [Sicurezza DNS avanzata](https://www.paloaltonetworks.it/network-security/advanced-dns-security?ts=markdown) * [Prevenzione della perdita di dati aziendali](https://www.paloaltonetworks.it/sase/enterprise-data-loss-prevention?ts=markdown) * [Sicurezza IoT aziendale](https://www.paloaltonetworks.it/network-security/enterprise-iot-security?ts=markdown) * [Sicurezza IoT nel settore medico](https://www.paloaltonetworks.it/network-security/medical-iot-security?ts=markdown) * [Sicurezza OT industriale](https://www.paloaltonetworks.it/network-security/industrial-ot-security?ts=markdown) * [Sicurezza SaaS](https://www.paloaltonetworks.it/sase/saas-security?ts=markdown) * [Firewall di nuova generazione](https://www.paloaltonetworks.it/network-security/next-generation-firewall?ts=markdown) * [Firewall hardware](https://www.paloaltonetworks.it/network-security/hardware-firewall-innovations?ts=markdown) * [Firewall software](https://www.paloaltonetworks.it/network-security/software-firewalls?ts=markdown) * [Strata Cloud Manager](https://www.paloaltonetworks.it/network-security/strata-cloud-manager?ts=markdown) * [SD-WAN per NGFW](https://www.paloaltonetworks.it/network-security/sd-wan-subscription?ts=markdown) * [PAN-OS](https://www.paloaltonetworks.it/network-security/pan-os?ts=markdown) * [Panorama](https://www.paloaltonetworks.it/network-security/panorama?ts=markdown) * [Secure Access Service Edge](https://www.paloaltonetworks.it/sase?ts=markdown) * [Prisma SASE](https://www.paloaltonetworks.it/sase?ts=markdown) * [Accelerazione delle applicazioni](https://www.paloaltonetworks.it/sase/app-acceleration?ts=markdown) * [ADEM (Autonomous Digital Experience Management)](https://www.paloaltonetworks.it/sase/adem?ts=markdown) * [DLP aziendale](https://www.paloaltonetworks.it/sase/enterprise-data-loss-prevention?ts=markdown) * [Prisma Access](https://www.paloaltonetworks.it/sase/access?ts=markdown) * [Prisma Browser](https://www.paloaltonetworks.it/sase/prisma-browser?ts=markdown) * [Prisma SD-WAN](https://www.paloaltonetworks.it/sase/sd-wan?ts=markdown) * [Remote Browser Isolation](https://www.paloaltonetworks.it/sase/remote-browser-isolation?ts=markdown) * [Sicurezza SaaS](https://www.paloaltonetworks.it/sase/saas-security?ts=markdown) * [Piattaforma operazioni di sicurezza basate su AI](https://www.paloaltonetworks.it/cortex?ts=markdown) * [Sicurezza cloud](https://www.paloaltonetworks.it/cortex/cloud?ts=markdown) * [Cortex Cloud](https://www.paloaltonetworks.it/cortex/cloud?ts=markdown) * [Sicurezza delle applicazioni](https://www.paloaltonetworks.it/cortex/cloud/application-security?ts=markdown) * [Sicurezza del livello cloud](https://www.paloaltonetworks.it/cortex/cloud/cloud-posture-security?ts=markdown) * [Sicurezza runtime del cloud](https://www.paloaltonetworks.it/cortex/cloud/runtime-security?ts=markdown) * [Prisma Cloud](https://www.paloaltonetworks.it/prisma/cloud?ts=markdown) * [SOC basato su AI](https://www.paloaltonetworks.it/cortex?ts=markdown) * [Cortex XSIAM](https://www.paloaltonetworks.it/cortex/cortex-xsiam?ts=markdown) * [Cortex XDR](https://www.paloaltonetworks.it/cortex/cortex-xdr?ts=markdown) * [Cortex XSOAR](https://www.paloaltonetworks.it/cortex/cortex-xsoar?ts=markdown) * [Cortex Xpanse](https://www.paloaltonetworks.it/cortex/cortex-xpanse?ts=markdown) * [Rilevamento e risposta gestiti da Unit 42](https://www.paloaltonetworks.it/cortex/managed-detection-and-response?ts=markdown) * [XSIAM gestito](https://www.paloaltonetworks.it/cortex/managed-xsiam?ts=markdown) * [Intelligence sulle minacce e servizi di risposta agli incidenti](https://www.paloaltonetworks.it/unit42?ts=markdown) * [Valutazioni proattive](https://www.paloaltonetworks.it/unit42/assess?ts=markdown) * [Risposta agli incidenti](https://www.paloaltonetworks.it/unit42/respond?ts=markdown) * [Trasforma la tua strategia di sicurezza](https://www.paloaltonetworks.it/unit42/transform?ts=markdown) * [Scopri l'intelligence sulle minacce](https://www.paloaltonetworks.it/unit42/threat-intelligence-partners?ts=markdown) ## Azienda * [Informazioni](https://www.paloaltonetworks.com/about-us) * [Offerte di lavoro](https://jobs.paloaltonetworks.com/en/) * [Contattaci](https://www.paloaltonetworks.it/contact?ts=markdown) * [Responsabilità aziendale](https://www.paloaltonetworks.com/about-us/corporate-responsibility) * [Clienti](https://www.paloaltonetworks.it/customers?ts=markdown) * [Relazioni con gli investitori](https://investors.paloaltonetworks.com/) * [Sede](https://www.paloaltonetworks.com/about-us/locations) * [Rassegna stampa](https://www.paloaltonetworks.it/company/newsroom?ts=markdown) ## Link più richiesti * [Blog](https://www.paloaltonetworks.com/blog/?lang=it) * [Communities](https://www.paloaltonetworks.com/communities) * [Libreria di contenuti](https://www.paloaltonetworks.it/resources?ts=markdown) * [Cyberpedia](https://www.paloaltonetworks.it/cyberpedia?ts=markdown) * [Centro eventi](https://events.paloaltonetworks.com/) * [Gestisci le preferenze e-mail](https://start.paloaltonetworks.com/preference-center) * [Prodotti A-Z](https://www.paloaltonetworks.com/products/products-a-z) * [Certificazioni di prodotto](https://www.paloaltonetworks.com/legal-notices/trust-center/compliance) * [Segnala una vulnerabilità](https://www.paloaltonetworks.com/security-disclosure) * [Mappa del sito](https://www.paloaltonetworks.it/sitemap?ts=markdown) * [Documenti tecnici](https://docs.paloaltonetworks.com/) * [Unit 42](https://unit42.paloaltonetworks.com/) * [Non vendere o condividere le mie informazioni personali](https://panwedd.exterro.net/portal/dsar.htm?target=panwedd) ![PAN logo](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/pan-logo-dark.svg) * [Privacy](https://www.paloaltonetworks.com/legal-notices/privacy) * [Trust Center](https://www.paloaltonetworks.com/legal-notices/trust-center) * [Condizioni d'uso](https://www.paloaltonetworks.com/legal-notices/terms-of-use) * [Documenti](https://www.paloaltonetworks.com/legal) Copyright © 2026 Palo Alto Networks. Tutti i diritti riservati * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/youtube-black.svg)](https://www.youtube.com/user/paloaltonetworks) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/twitter-x-black.svg)](https://twitter.com/PaloAltoNtwks) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/facebook-black.svg)](https://www.facebook.com/PaloAltoNetworks/) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/linkedin-black.svg)](https://www.linkedin.com/company/palo-alto-networks) * [![](https://www.paloaltonetworks.com/content/dam/pan/en_US/images/icons/podcast.svg)](https://unit42.paloaltonetworks.com/unit-42-threat-vector-podcast/) * IT Select your language