CybersécuritéExperiences

Face aux cybermenaces sur l’IA, Google recommande à ses clients de poser rapidement un nouveau cadre de sécurité

Afin d’aider les entreprises à se protéger contre une nouvelle vague de menaces cyber liées à l’IA, Google propose une nouvelle approche de contrôles de sécurité de base à leurs systèmes d’intelligence artificielle

L’enjeu est de taille : empêcher les pirates informatiques qui tentent de manipuler les modèles d’IA ou de voler les données sur lesquelles ces modèles ont été formés.

Le contexte général :  avec l’engouement suscité par ChatGPT, nombreux sont ceux qui s’essayent à différents services afin de pouvoir tester. Alors que l’attention prêtée à la manière dont les données sont collectées, partagées ou protégées baisse par la frénésie de la découverte des applications d’IA générative, de nombreux pirates organisent des dispositifs pour capter des données à leur insu, parfois très simple. Cela peut être une application tierce qui permet d’analyser des documents dans un format pdf, l’utilisateur peut alors donner accès à des informations confidentielles sans mesurer le risque associé. Certaines de ces applications une fois connectées peuvent automatiser des opérations de transfert de données ou tout simplement utiliser vos clés d’accès à vos API.

Pour faire face à ce nouveau risque, Google propose le cadre Secure AI qui repose sur six idées principales:

  1. Évaluer quels contrôles de sécurité existants peuvent être facilement étendus aux nouveaux systèmes d’IA, tels que le cryptage des données ;
  2. Élargir la recherche existante sur les menaces pour inclure également des menaces spécifiques ciblant les systèmes d’IA ;
  3. Intégrer l’automatisation dans les défenses cybernétiques de l’entreprise pour répondre rapidement à toute activité anormale ciblant les systèmes d’IA ;
  4. Effectuer des examens réguliers des mesures de sécurité en place autour des modèles d’IA ;
  5. Tester constamment la sécurité de ces systèmes d’IA par des tests de pénétration et apporter des modifications en fonction de ces résultats ;
  6. Enfin, constituer une équipe qui comprend les risques liés à l’IA pour déterminer où le risque de l’IA devrait se situer dans la stratégie globale de l’organisation pour atténuer les risques commerciaux.

Peut être le point important à avoir en tête est que la majorité des stratégies de gestion de la sécurité liées à l’emploi et au développement de l’IA sont fortement analogues aux méthodes de gestion de l’accès aux données, et que cela peut servir d’un bon point de départ dans l’élaboration de process de sécurités adaptés.

Pour inciter à l’adoption de ces principes, Google travaille avec ses propres clients pour comprendre comment appliquer ces concepts. L’entreprise élargit également son programme de primes aux bugs pour accepter de nouvelles découvertes mettant en évidence des failles de sécurité liées à la sécurité et à la sûreté de l’IA.

De nombreuses entreprises dont les solutions sont massivement utilisées vont probablement suivre cette initiative visant à évangéliser sur les nouveaux risques cyber qu’entrainent l’IA, dont la technicité va rapidement progresser. Une fois de plus n’oubliez pas de fermer les volets et les principes les plus évidents méritent d’être rappelés dans cette période de stimulation des cerveaux.

Suivez nous:
CATHAY INNOVATION EDUCAPITAL XANGE
A Global Venture Capital Firm Connecting Innovators Everywhere The largest European Edtech & Future of Work VC Today's disruption, Tomorrow's daily life
DECOUVRIR DECOUVRIR DECOUVRIR
Connaissez vous la DATAROOM de FRENCHWEB.FR notre base de données de startups et sociétés innovantes françaises: informations clés, fonds levées, chiffres d'affaires, organigramme, axes de développement. Accédez aux informations que nous avons collecté concernant plus de 2000 sociétés
Bouton retour en haut de la page
Share This