• Shakerz
  • Posts
  • đŸ€– ChatGPT est-il sĂ©curisĂ© ?

đŸ€– ChatGPT est-il sĂ©curisĂ© ?

Shake ă€°ïž 01 Avril. 2023

Salut Shaker 👋

C’est samedi, voici le Shake. Pour toi, voici ce qu’on a retenu du digital et de la cyber cette semaine. À la une : 🛡 La sĂ©curitĂ© de ChatGPT questionne.

On te dĂ©code l’actu :

🚗 Les Français de Synaktiv hackent une Tesla Model 3,

🇩đŸ‡ș 14 millions de documents personnels dĂ©robĂ©s lors d'une cyberattaque contre une banque,

📝 L’administration Biden signe un dĂ©cret qui restreint les spywares,

đŸ‡°đŸ‡” Le groupe nord-corĂ©en APT43 utilise la cybercriminalitĂ© pour financer ses opĂ©rations d'espionnage,

🔑 Github (Microsoft) publie par erreur sa clĂ© hĂŽte RSA SSH,

On t’explique tout ça plus bas.

Retrouve le mag :

đŸŠŸ Microsoft lance Security Copilot, son assistant GPT-4 pour la cybersĂ©curitĂ©,

💬 Le rapport d’Europol sur l'impact des grands modĂšles linguistiques d’IA sur la sĂ©curitĂ©,

🍋 Des ingrĂ©dients Ă  la carte pour remixer tes propres cocktails cyber Ă  la maison ou au bureau, et, roulement de tambour
 la question de la semaine !

Bonne lecture !

Signé - Aurélien, Sylvan et toute la Shakerz core team

ă€°ïž La reco du barman ă€°ïž

🛡 La sĂ©curitĂ© de ChatGPT en questions

a computer keyboard with a green logo on it

ChatGPT connaßt ses premiÚres failles de sécurité

Le 22 mars, OpenAI, la sociĂ©tĂ© propriĂ©taire de ChatGPT, a annoncĂ© avoir rĂ©solu un bug majeur qui permettait Ă  certains utilisateurs de visualiser les titres de conversations d'autres utilisateurs. L’outil conversationnel a Ă©tĂ© pour la premiĂšre fois depuis sa sortie interrompu pendant plusieurs heures Ă©viter que des individus mal intentionnĂ©s n’exploitent ce bug. Plusieurs utilisateurs ont partagĂ© des captures d'Ă©cran montrant qu'ils avaient accĂšs aux historiques de conversations, fort heureusement anonymisĂ©es, appartenant Ă  d'autres utilisateurs. La dĂ©faillance a Ă©tĂ© causĂ©e par un bug dans la bibliothĂšque open source “Redis”, qui a rapidement Ă©tĂ© corrigĂ©. Le PDG d'OpenAI, Sam Altman, a indiquĂ© dans un tweet que seuls quelques utilisateurs avaient pu voir les titres de conversations d’autres utilisateurs et qu’un correctif avait Ă©tĂ© publiĂ©.

La joie fut de courte durĂ©e, lorsque quelques heures seulement aprĂšs la rĂ©ouverture de la plateforme, des utilisateurs souhaitant s’abonner Ă  ChatGPT Plus, ont rapportĂ© avoir eu accĂšs Ă  des donnĂ©es personnelles qui n’étaient pas les leurs sur l’interface de paiement. Les donnĂ©es personnelles divulguĂ©es incluaient les prĂ©noms et noms des utilisateurs, leurs adresses e-mail et de paiement, ainsi que les quatre derniers chiffres de leur numĂ©ro de carte de crĂ©dit et leur date d'expiration. Selon OpenAI, le premier bug dans la bibliothĂšque open source a conduit Ă  ce second problĂšme qui a exposĂ© les informations de paiement pour 1,2 % des abonnĂ©s ChatGPT Plus.

Ces incidents vient soulever quelques inquiĂ©tudes concernant la confidentialitĂ© des informations partagĂ©es sur la plateforme aujourd’hui utilisĂ©e par plus de 100 millions d’utilisateurs actifs mensuels. OpenAI a toutefois tenu Ă  rappeler dans sa FAQ que les donnĂ©es des utilisateurs (les historiques de conversation) pouvaient ĂȘtre utilisĂ©es pour amĂ©liorer l'intelligence artificielle de ChatGPT, et qu’il convenait donc de ne jamais partager d'informations sensible sur la plateforme.

Les plugins débarquent dans ChatGPT

ChatGPT évolue vite, trÚs vite, trop vite ? Quelques jours seulement aprÚs la sortie de GPT-4, OpenAI a annoncé le support des plugins pour chatGPT, ces extensions qui enrichissent votre navigateur web en proposant des fonctionnalités supplémentaires, similaires à celles que l'on peut trouver sur Google Chrome.

DerriĂšre cette annonce en apparence “mineure”, l’évolution que cela apporte au robot conversationnel est en rĂ©alitĂ© considĂ©rable. En effet, jusqu’à prĂ©sent ChatGPT avait Ă©tĂ© entrainĂ© sur une base d’informations n’allant pas au delĂ  de 2021 et n’était donc pas capable d’interagir avec des faits d’actualitĂ©s. Avec l’arrivĂ©e des plugins et l’accĂšs Ă  des donnĂ©es actualisĂ©es issues du web, les performances de ChatGPT s’en trouvent dĂ©cuplĂ©es.

OpenAI n’avait pas d’autre choix que de prendre les devants Ă  ce sujet. D’une part, pour rĂ©pondre aux limitations de l’outil et d’autres part, parce que ces derniĂšres semaines ont Ă©tĂ© particuliĂšrement marquĂ©es par une avalanche de fraudes permises par la prolifĂ©ration de faux plugins ChatGPT.

12 plugins officiels dont Expedia, Instacart, Kayak, Shopify, Slack, Zapier sont actuellement testĂ©s auprĂšs de dĂ©veloppeurs et abonnĂ©s Ă  ChatGPT Plus et plus de 80 plugins seraient en dĂ©veloppement selon le hacker “rez0” qui affirme avoir hackĂ© l’API de ChatGPT.

La rĂ©cente fuite de donnĂ©es de ChatGPT et l'introduction des plugins connectĂ©s Ă  internet soulĂšvent des questions quant Ă  savoir si les gĂ©ants de la technologie ne sont pas en train de confondre vitesse et prĂ©cipitation dans cette course Ă  l’IA.

Des centaines d'experts, dont Elon Musk, tirent la sonnette d'alarme sur les “risques majeurs pour l’humanitĂ©â€

C’en est trop ! Elon Musk et des centaines d'experts demandent un moratoire de six mois sur la recherche d'IA plus avancĂ©e que ChatGPT 4. Dans une pĂ©tition publiĂ©e sur Futureoflife.org, ils soulignent les “risques majeurs pour l'humanitĂ©â€ et appellent Ă  la mise en place de systĂšmes de sĂ©curitĂ©, de nouvelles autoritĂ©s rĂ©glementaires et d'institutions capables de gĂ©rer les perturbations Ă©conomiques et politiques que l'IA provoquera. Les signataires comprennent des personnalitĂ©s comme Elon Musk - qui avait pourtant largement financĂ© la fondation OpenAI, Ă  l’origine du projet de ChatGPT - et l’historien et professeur d'histoire Yuval Noah Harari. Ils s'inquiĂštent notamment de la course Ă  l'IA incontrĂŽlable et des consĂ©quences potentiellement dĂ©sastreuses pour l'humanitĂ©. Le PDG d’Open AI et concepteur de ChatGPT lui mĂȘme, avait dĂ©clarĂ© ĂȘtre “un petit peu effrayĂ©â€ par sa crĂ©ation si elle Ă©tait utilisĂ©e pour de “la dĂ©sinformation Ă  grande Ă©chelle ou des cyberattaques”.

đŸŠŸ Security Copilot : l’assistant GPT-4 de Microsoft pour la cybersĂ©curitĂ©

AprĂšs Github Copilot, destinĂ© aux dĂ©veloppeurs, c’est au tour des Ă©quipes de sĂ©curitĂ© d’ĂȘtre mises Ă  l’honneur (ou challengĂ©es). Microsoft Security Copilot est un nouvel outil basĂ© sur l’IA de nouvelle gĂ©nĂ©ration GPT-4. Cette solution est voulue pour permettre aux “dĂ©fenseurs de dĂ©tecter et de rĂ©agir rapidement aux menaces, ainsi que de mieux comprendre l'environnement global des menaces”. Microsoft souhaite ainsi fournir aux experts cyber “une assistance IA facile Ă  utiliser pour amĂ©liorer la productivitĂ© et la sĂ©curitĂ© de leur organisation”.

ă€°ïž Vos shots ă€°ïž

🚗 Les Français de Synaktiv hackent une Tesla Model 3

Chaque annĂ©e, durant la confĂ©rence dĂ©diĂ©e Ă  la cybersĂ©curitĂ© “CanSecWest” Ă  Vancouver, un concours de sĂ©curitĂ© informatique baptisĂ© “Pwn2Own”, destinĂ© aux pirates “White Hat”, est organisĂ© dans le but de mettre en Ă©vidence des failles de sĂ©curitĂ© contre de grosses sommes d’argent. Pour cette Ă©dition, macOS, Safari, Microsoft, Adobe et Tesla faisaient partie, entre autres, des cibles proposĂ©es. Cette annĂ©e, une Ă©quipe d’analystes en sĂ©curitĂ© offensive du spĂ©cialiste français Synaktiv s’est particuliĂšrement illustrĂ© en rĂ©ussissant l’exploit de prendre le contrĂŽle total de la cĂ©lĂšbre Tesla Model 3, dont le constructeur est Ă©galement un sponsor de l’évĂšnement. Pour ce faire, les pirates ont utilisĂ© la connexion Bluetooth du systĂšme d’infodivertissement comme porte d’entrĂ©e. Ils ont ensuite poursuivi leur chemin dans le systĂšme d’exploitation pour rĂ©cupĂ©rer les droits d’administration leur permettant en thĂ©orie de dĂ©marrer et de voler le vĂ©hicule. En rĂ©compense, les pirates ont pu repartir avec la voiture et un beau chĂšque de 350 000 dollars. Cocorico ! 🐔 Ce n’est pas la premiĂšre fois que des analystes en sĂ©curitĂ© informatique parviennent Ă  hacker une Tesla Model 3. Ce fut dĂ©jĂ  le cas lors de l’édition 2019 de ce mĂȘme concours. Quoi qu’il en soit, cette dĂ©couverte va ĂȘtre extrĂȘmement utile pour Tesla qui va pouvoir mettre en place les mesures nĂ©cessaires pour limiter l’exploitation des failles identifiĂ©es durant cet Ă©vĂšnement.

🇩đŸ‡ș 14 millions de documents personnels dĂ©robĂ©s lors d'une cyberattaque contre une banque en Australie

Latitude Group Holdings Ltd, une entreprise de crĂ©dit Ă  la consommation australienne, a rĂ©vĂ©lĂ© lundi que des pirates informatiques avaient volĂ© 14 millions de documents personnels appartenant Ă  ses clients. Les attaquants se sont emparĂ©s de bien plus de donnĂ©es que les 113 000 licences volĂ©es rĂ©vĂ©lĂ©es le 16 mars par l’entreprise. Parmi les donnĂ©es dĂ©robĂ©es, l’on retrouve prĂšs de 7,9 millions de numĂ©ros de permis de conduire, ainsi que plus de 53 000 numĂ©ros de passeport et plus de 6 millions de dossiers de clients. Suite Ă  cette attaque, les opĂ©rations du groupe ont Ă©tĂ© temporairement gelĂ©es et l’incident fait actuellement l'objet d'une enquĂȘte de la police fĂ©dĂ©rale australienne. Cette affaire concerne plus d’un Australien sur 5 dans ce pays qui compte 26 millions d’habitants. Elle rejoint les lus importantes violations de donnĂ©es de l’histoire du pays, aux cĂŽtĂ©s de l’opĂ©rateur de tĂ©lĂ©communication Optus et l’assureur Medibank Private Ltd, tous deux victimes en fin d’annĂ©e derniĂšre, d’attaques ayant entrainĂ© le vol de plusieurs millions de comptes clients.

📝 Pegasus Biden signe un dĂ©cret limitant le marchĂ© des spywares

Ce lundi 27 mars, l'administration Biden a pris une mesure dĂ©cisive pour protĂ©ger la sĂ©curitĂ© nationale des États-Unis en publiant un dĂ©cret exĂ©cutif interdisant aux agences fĂ©dĂ©rales d'utiliser des logiciels espions (spywares) prĂ©sentant des risques Ă©levĂ©s en matiĂšre de sĂ©curitĂ© et de contre-espionnage. Cette mesure a Ă©tĂ© prise en rĂ©ponse Ă  la prolifĂ©ration de logiciels espions invasifs, souvent utilisĂ©s pour collecter des donnĂ©es Ă  partir de tĂ©lĂ©phones portables. Plus de 50 fonctionnaires gouvernementaux amĂ©ricains auraient Ă©tĂ© ciblĂ©s par ces logiciels selon des sources proches du dossier. Ces logiciels conçus par de multiples entreprises, dont de nombreuses israĂ©liennes, ont Ă©tĂ© et sont utilisĂ©s par plusieurs gouvernements Ă©trangers pour espionner des opposants politiques, des dĂ©fenseurs des droits de l'homme et des journalistes, comme ce fut notamment le cas avec le logiciel espion Pegasus du groupe israĂ©lien NSO. En interdisant l'utilisation de ces logiciels par les agences fĂ©dĂ©rales amĂ©ricaines, l'administration Biden envoie un message fort aux fabricants de logiciels espions et aux gouvernements qui les utilisent pour violer les droits de l'homme et rĂ©primer l’opposition politique. Ce dĂ©cret constituera probablement un fondement essentiel pour renforcer la coopĂ©ration internationale, dans le but de favoriser l'utilisation responsable des technologies de surveillance.

🔑 Quand Github publie sa clĂ© SSH principale

MĂȘme les meilleurs de la tech font des erreurs. Par mesure de prĂ©caution, GitHub.com, filiale de Microsoft, a remplacĂ© le 24 mars sa clĂ© hĂŽte RSA SSH utilisĂ©e pour sĂ©curiser les opĂ©rations Git. Ceci a Ă©tĂ© fait pour protĂ©ger les utilisateurs d’éventuelles tentatives d'usurpation de l'identitĂ© de GitHub ou d'Ă©coute de leurs opĂ©rations Git via SSH. Cependant, il est important de noter que ce changement n'affecte que les opĂ©rations Git via SSH utilisant RSA et n'a aucun impact sur le trafic web ou les opĂ©rations Git HTTPS. De plus aucune information client n’a Ă©tĂ© compromise. Que s’est t-il passĂ© ? D’aprĂšs GitHub, la clĂ© RSA de GitHub.com aurait Ă©tĂ© briĂšvement exposĂ©e dans un dĂ©pĂŽt public de GitHub cette semaine. Pour l’heure, aucune preuve n’indique que la clĂ© exposĂ©e soit arrivĂ©e entre les mains de personnes mal intentionnĂ©es ou qu’elle ait Ă©tĂ© utilisĂ©e de maniĂšre abusive. GitHub prĂ©cise que seules les clĂ©s RSA SSH ont Ă©tĂ© affectĂ©es et qu'aucun changement n'est nĂ©cessaire pour les utilisateurs d'ECDSA ou d'Ed25519. Cependant, si vous voyez le message d’alerte “Warning: remote host identification has changed”, Github indique dans son article la procĂ©dure Ă  suivre pour supprimer l’ancienne clĂ© et l’actualiser.

đŸȘș Aussi dans l’actu : une partie du code source de Twitter a Ă©tĂ© partagĂ© sur GitHub avant d’ĂȘtre retirĂ©e. Le mal est fait
 La piste d’un ex-employĂ© licenciĂ© par Elon Musk est privilĂ©giĂ©e.

đŸ‡°đŸ‡” Comment le groupe nord-corĂ©en APT43 blanchit les cryptomonnaies volĂ©es

AprĂšs de nombreuses annĂ©e de surveillance, l’entreprise amĂ©ricaine de cybersĂ©curitĂ© et filiale de Google, Mandiant, a publiĂ© ce mardi 18 mars un rapport qui nous permet d’en apprendre davantage sur le groupe de cybercriminels nord-corĂ©en. APT43 est un groupe de pirates actifs qui oeuvre pour le compte du rĂ©gime nord-corĂ©en en utilisant des capacitĂ©s techniques relativement avancĂ©es ainsi que des tactiques agressives d'ingĂ©nierie sociale pour cibler entre autres, des organisations gouvernementales, des universitĂ©s, des organismes de recherche et des instituts politique. Ses cibles se concentrent principalement en CorĂ©e du Sud, aux États-Unis, au Japon et en Europe. Dans ce rapport, on apprend Ă©galement que le groupe finance sa “mission principale de collecte de renseignements stratĂ©giques” grĂące Ă  des activitĂ©s de cybercriminalitĂ©. Pour ce faire, APT43 utilise de nombreuses identitĂ©s frauduleuses et usurpĂ©es pour mener des campagnes d'ingĂ©nierie sociale, ainsi que des identitĂ©s de couverture pour acquĂ©rir des outils et des infrastructures opĂ©rationnels. Enfin, le groupe a Ă©tĂ© impliquĂ© dans plusieurs opĂ©rations conjointes avec d'autres opĂ©rateurs d'espionnage nord-corĂ©ens, soulignant ainsi son rĂŽle important au sein du rĂ©gime de Kim Jung-Un.

ă€°ïž DĂ©gustation ă€°ïž

💬 L'impact des grands modĂšles linguistiques sur la sĂ©curitĂ© publique

En rĂ©ponse Ă  l'intĂ©rĂȘt grandissant du public envers ChatGPT, le laboratoire d'innovation d'Europol a organisĂ© des ateliers avec des experts en analyse opĂ©rationnelle, grande criminalitĂ©, criminalitĂ© organisĂ©e, cybercriminalitĂ©, et en technologies de l'information afin d'Ă©tudier comment les criminels pourraient exploiter les grands modĂšles linguistiques comme ChatGPT, ainsi que leur potentiel pour aider les enquĂȘteurs dans leur travail quotidien. Un rapport prĂ©sente les rĂ©sultats.

Parmi les nombreux sujets de préoccupation identifiés par les experts d'Europol, 3 domaines de criminalités sortent du lot et inquiÚtent les experts :

  1. Les capacités de ChatGPT en matiÚre de fraude et d'ingénierie sociale en font un outil attrayant pour les escrocs. Grùce à sa capacité à reproduire des modÚles de langage humain élaborés, il peut imiter le style de discours d'individus ou de groupes spécifiques, ce qui peut tromper les victimes potentielles et les inciter à faire confiance à des acteurs criminels.

  2. La production rapide de textes authentiques à grande échelle fait de ChatGPT un outil de choix pour la propagande et la désinformation, facilitant la génération et la diffusion de messages reflétant un récit spécifique avec relativement peu d'efforts.

  3. ChatGPT peut Ă©galement ĂȘtre utilisĂ© pour produire du code malveillant, ce qui en fait une ressource inestimable pour les criminels ayant peu de connaissances techniques.

Pour Europol, il est donc essentiel que les autorités restent à la pointe des avancées technologiques pour anticiper et prévenir les abus, en particulier à mesure que de nouveaux modÚles deviennent disponibles.

ă€°ïž Cul sec - La question ă€°ïž

đŸš© Que signifie le sigle LLM ?

A. Logic Learning Machine

B. Logement Ă  Loyer Modique

D. Large Language Model

C. Legum Magister

—> RĂ©ponse Ă  la sortie du bar.

ă€°ïž À La carte ă€°ïž

📝 Tribune - â€œL'Ăšre de l'IA a commencĂ©â€. Dans une lettre de sept pages, Bill Gates partage ses prĂ©dictions sur l'avenir de la technologie. Dans le mĂȘme temps, Elon Musk s’en est une nouvelle fois pris Ă  Bill Gates dans un tweet en affirmant que sa comprĂ©hension de l’IA Ă©tait “limitĂ©e”. Lui qui avait financĂ© le projet initial de la Fondation OpenAI, peut-ĂȘtre a t-il du mal Ă  digĂ©rer le pari rĂ©ussi de Microsoft avec Open AI.

🔄 Mises Ă  jour - Lundi dernier, Apple Ă  publiĂ© une nouvelle vague de mises Ă  jour de sĂ©curitĂ© pour ses logiciels. iOS, macOS, watchOS, plusieurs produits sont concernĂ©s. Les mises Ă  jours sont consultables ici.

🍏 ÉvĂšnement - Les dates de la Worldwide Developers Conference 2023 d'Apple ont Ă©tĂ© annoncĂ©es officiellement. L'Ă©vĂ©nement se tiendra au campus Apple et en ligne du 5 au 9 juin prochain.

ă€°ïž Cul sec - RĂ©ponse ă€°ïž

RĂ©ponses

Toutes les rĂ©ponses sont bonnes, mais une seule fait du sens dans le domaine rĂ©cent de l’intelligence artificielle.

A. Logic Learning Machine : c’est une implĂ©mentation d’un algorithme d’intelligence artificielle qui permet de gĂ©nĂ©rer des rĂšgles (hypothĂšses), intelligibles par des humains.

B. Logement à Loyer Modique : au Québec, cela signifie HLM habitat à loyer modéré

D. Large Language Model : c’est un ensemble de donnĂ©es statistiques qui permet, suite Ă  une Ă©tape d’apprentissage Ă  partir d’une grande quantitĂ© de textes et Ă  partir de rĂ©seaux neuronaux multicouches de gĂ©nĂ©rer des textes Ă  partir d’une demande en langage naturel (« prompt Â») ou d’un texte de dĂ©part. Cette technologie, qui est difficilement vĂ©rifiable par un humain (on dit qu’elle est « black box Â»), sous-tends ChatGPT.

C. Legum Magister : LL.M est une abrĂ©viation du Latin Legum Magister. C’est un diplĂŽme de droit particuliĂšrement destinĂ© aux Ă©tudiants Ă©trangers.

ă€°ïž Digestif ă€°ïž

👋 HĂ©, l’IA apprend vite !

Merci d’ĂȘtre passĂ© ! Rendez-vous samedi prochain pour ton nouveau Shake de l’actu cyber et digitale ! 👋

👉 On a besoin de ton soutien pour diffuser Ă  tous la culture de sĂ©curitĂ© digitale.

Rejoins Shakerz, abonne-toi pour recevoir la newsletter hebdo. Tu aimes les Shake et tu veux en faire profiter tes potos ? Alors
 👇👇👇

Des questions ou un avis Ă  partager ? C’est simple, il suffit de rĂ©pondre Ă  cet email et d’envoyer tes quelques lignes.

“Shake it, don’t fake it“

Reply

or to participate.