Les fabricants du chatbot Cloud d’intelligence artificielle (IA) ont affirmé avoir surpris des pirates informatiques parrainés par le gouvernement chinois en train d’utiliser l’outil pour lancer des cyberattaques automatisées contre une trentaine d’entreprises mondiales.
Anthropic a déclaré que les pirates ont trompé le chatbot pour qu’il effectue des tâches automatisées sous prétexte de mener des recherches sur la cybersécurité.
Entreprise revendique un article de blog Il s’agissait de « la première campagne de cyberespionnage orchestrée par l’IA ».
Mais les sceptiques remettent en question l’exactitude de cette affirmation – et les motivations qui la sous-tendent.
Anthropic a déclaré avoir découvert la tentative de piratage à la mi-septembre.
Se faisant passer pour du personnel légitime de cybersécurité, les pirates ont confié au chatbot de petites tâches automatisées qui, une fois combinées, constituaient une « opération d’espionnage hautement sophistiquée ».
Les chercheurs d’Anthropic ont déclaré qu’ils étaient « hautement convaincus » que les attaquants étaient des « groupes parrainés par l’État chinois ».
Ils ont déclaré que les gens avaient choisi des cibles – grandes entreprises technologiques, institutions financières, entreprises de fabrication de produits chimiques et agences gouvernementales – mais que l’agence ne serait pas plus précise.
Les pirates ont ensuite utilisé l’aide au codage de Claude pour créer un programme non spécifié “pour compromettre automatiquement une cible sélectionnée avec peu d’implication humaine”.
L’anthropologue affirme que le chatbot a réussi à pirater diverses organisations anonymes, à extraire des données sensibles et à les parcourir à la recherche d’informations précieuses.
La société a déclaré qu’elle avait interdit aux pirates informatiques d’utiliser le chatbot et en avait informé les entreprises concernées et les forces de l’ordre.
Mais Martin Jugec, de la société de cybersécurité Bitdefender, affirme que le monde de la cybersécurité a des sentiments mitigés face à cette nouvelle.
“Le rapport d’Anthropic fait des affirmations audacieuses et spéculatives mais ne fournit pas de preuves vérifiables en matière de renseignements sur les menaces”, a-t-il déclaré.
“Bien que le rapport souligne un sujet de préoccupation croissant, il est important pour nous de fournir autant d’informations que possible sur la manière dont ces attaques se produisent afin que nous puissions évaluer et définir la véritable menace des attaques d’IA.”
L’annonce d’Anthropic est peut-être l’exemple le plus médiatisé d’entreprises affirmant que de mauvais acteurs utilisent des outils d’IA pour exécuter des piratages automatisés.
C’est le genre de danger qui inquiète beaucoup, mais d’autres sociétés d’IA ont également affirmé que des pirates informatiques d’États-nations avaient utilisé leurs produits.
En février 2024, OpenAI a publié un article de blog en collaboration avec des cyber-experts de Microsoft indiquant qu’elle avait perturbé cinq acteurs affiliés à l’État, dont certains étaient originaires de Chine.
“Ces acteurs souhaitaient généralement utiliser les services OpenAI pour rechercher des données open source, traduire, trouver des erreurs de codage et effectuer des tâches de codage de base.” A cette époque, l’institution Dr.
Anthropic n’a pas précisé comment elle avait conclu que les pirates étaient liés au gouvernement chinois lors de cette dernière campagne.
Cela survient alors que certaines entreprises de cybersécurité ont été critiquées pour avoir exagéré l’utilisation de l’IA par les pirates.
Les critiques affirment que la technologie est encore trop imprévisible pour être utilisée pour des cyberattaques automatisées.
En novembre, le cyberexpert de Google, le Dr a publié un document de recherche Cela met en évidence les inquiétudes croissantes concernant l’utilisation de l’IA par les pirates pour créer de nouveaux types de logiciels malveillants.
Mais le document concluait que les outils n’étaient pas aussi efficaces et n’étaient qu’en phase de test.
L’industrie de la cybersécurité, comme celle de l’IA, tient à affirmer que les pirates informatiques utilisent la technologie pour cibler les entreprises afin de stimuler l’intérêt pour leurs propres produits.
Dans son article de blog, Anthropic affirme que la solution pour arrêter les attaquants IA est d’utiliser des défenseurs IA.
“Les capacités mêmes qui permettent à Claude d’être utilisé dans ces attaques le rendent critique pour les cyberdéfenses”, affirme la société.
Et Anthropic admet que son chatbot a commis des erreurs. Par exemple, il a créé de faux noms d’utilisateur et mots de passe et a extrait des informations confidentielles qui, selon lui, étaient en réalité accessibles au public.
“Cela reste un obstacle aux cyberattaques totalement autonomes”, a déclaré Anthropic.







