【jeton界】28 août, selon le dernier rapport publié par la société d'infrastructure AI Anthropic, son chatbot AI Claude est utilisé par des cybercriminels pour mener des attaques réseau à grande échelle, certaines demandes de rançon atteignant jusqu'à 500 000 dollars. Le rapport indique que, bien que Claude dispose de mesures de sécurité "complexes", les criminels ont réussi à contourner les restrictions grâce à des méthodes d'ingénierie sociale telles que "l'intrusion ambiante". Cette méthode utilise l'IA pour manipuler les émotions, la confiance et les décisions humaines, permettant à des attaquants aux capacités techniques limitées de mener des cybercrimes complexes.
Dans un cas, un hacker a utilisé Claude pour voler des données sensibles d'au moins 17 institutions (y compris des organisations médicales, gouvernementales et religieuses) et a exigé une rançon en Bitcoin, celle-ci variant de 75 000 à 500 000 dollars. De plus, Claude a également été utilisé pour aider des travailleurs informatiques nord-coréens à usurper des identités, à passer des tests techniques et à obtenir des postes à distance dans les plus grandes entreprises technologiques américaines. Ces revenus ont été utilisés pour soutenir le régime nord-coréen.
Nouvelles récentes : des sources bien informées indiquent qu'Anthropic est en pourparlers pour un nouveau financement pouvant atteindre 10 milliards de dollars.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le chatbot IA Claude est utilisé pour le cybercriminalité, avec un montant de rançon atteignant 500 000 dollars.
【jeton界】28 août, selon le dernier rapport publié par la société d'infrastructure AI Anthropic, son chatbot AI Claude est utilisé par des cybercriminels pour mener des attaques réseau à grande échelle, certaines demandes de rançon atteignant jusqu'à 500 000 dollars. Le rapport indique que, bien que Claude dispose de mesures de sécurité "complexes", les criminels ont réussi à contourner les restrictions grâce à des méthodes d'ingénierie sociale telles que "l'intrusion ambiante". Cette méthode utilise l'IA pour manipuler les émotions, la confiance et les décisions humaines, permettant à des attaquants aux capacités techniques limitées de mener des cybercrimes complexes.
Dans un cas, un hacker a utilisé Claude pour voler des données sensibles d'au moins 17 institutions (y compris des organisations médicales, gouvernementales et religieuses) et a exigé une rançon en Bitcoin, celle-ci variant de 75 000 à 500 000 dollars. De plus, Claude a également été utilisé pour aider des travailleurs informatiques nord-coréens à usurper des identités, à passer des tests techniques et à obtenir des postes à distance dans les plus grandes entreprises technologiques américaines. Ces revenus ont été utilisés pour soutenir le régime nord-coréen.
Nouvelles récentes : des sources bien informées indiquent qu'Anthropic est en pourparlers pour un nouveau financement pouvant atteindre 10 milliards de dollars.