• Shakerz
  • Posts
  • L'IA de confiance • Raphaël Millet, Directeurs des Opérations de Mithril Security

L'IA de confiance • Raphaël Millet, Directeurs des Opérations de Mithril Security

Shakerz était présent au Forum InCyber de Lille. On te présente nos rencontres.

Nouveau ici ? Bienvenue chez Shakerz ! Abonne-toi pour recevoir ta dose de culture cyber et digitale, servie bien fraîche. 🍸

En deux mots, qui êtes-vous ?

Moi, c'est Raphaël Millet, le directeur des opérations de Mithril Security, une startup dédiée à l'IA confidentielle.

Qu'est-ce que l'IA confidentielle ?

On permet aux fournisseurs de modèles d'offrir le même service sans jamais avoir accès aux données de leurs clients en clair, mais surtout, on permet de le prouver. Parce que le dire, c'est bien, mais pouvoir le prouver, c'est encore mieux.

L'IA, une révolution ?

L'IA aujourd'hui, c'est une révolution comme Internet l’a été il y a 20 ans, sauf que ça va beaucoup plus vite. En fait, l'IA n’est ni incroyablement parfaite ni incroyablement mauvaise. C'est juste une nouvelle technologie qui s’est répandue extrêmement rapidement parce que nous avons aujourd'hui les capacités techniques pour héberger des modèles dans le cloud, que tout le monde peut utiliser, ce qui est franchement incroyable.

Il y a une adoption par le grand public et à tous les étages de l'entreprise qui est sans précédent. Nous sommes juste confronté à toutes les problématiques techniques de sécurité que nous aurions eu sur dix ans, si cela avait pris le temps d'internet, mais en seulement un an.

Donc en fait, il y a énormément de problèmes qui émergent. Il faut rester conscient qu'on ne peut pas fermer la porte et dire “non, je fais rien c'est trop dangereux”, mais en même temps, il y a énormément de risques. Il faut donc pondérer les risques, se renseigner et surtout décider ce que nous faisons, avec quels usages et quel type d'IA est acceptable.

Quels sont les problèmes causés par l'IA ?

L'utilisation massive de l'IA crée de nombreux problèmes de sécurité, d'éthique, etc. L'un des problèmes, concerne effectivement la confidentialité des données qu'on envoie à l'IA. Comment puis-je savoir que mon fournisseur ne l'utilise pas, par exemple, pour les consulter en clair ou pour entraîner son modèle ? Les deux sont assez embêtants. Ou alors, s’il s'est fait hacker et qu’il y a une backdoor. C'est un sujet sur lequel nous travaillons : la confidentialité des données.

Un autre sujet parallèle sur lequel nous travaillons avec les mêmes technologies, mais avec un produit complètement différent, est la traçabilité des modèles. Un modèle, c'est un enfant qui apprend par cœur. Donc il est aussi bon que les données qu'il a apprises. "Garbage in, garbage out". Un modèle ne peut jamais clamer être aussi éthique ou conscient de tel ou tel élément que les données sur lesquelles il a été entraîné.

Il y a aussi un autre problème : si vous entraînez un modèle sur des données avec de l'IP (propriété intellectuelle), le modèle peut restituer ces données avec de l'IP textuellement. Vous vous retrouvez à utiliser dans vos communications professionnelles des données, des communications, du texte appartenant à quelqu'un d'autre, parce que le modèle a été entraîné sur de l'IP.

Bref, vous avez tout un tas de problèmes liés à la manière dont le modèle est entraîné, et, aujourd'hui, il n'y a pas de moyen de le prouver.

Quel conseil IA donner à un citoyen ?

Je ne le tiens pas aujourd'hui, mais j'ai un discours extrêmement anxiogène sur l'IA, potentiellement parce qu'il y a effectivement des risques de sécurité considérables. Néanmoins, j'utilise l'IA au quotidien. J'utilise ChatGPT pour tout faire, parce que ça va plus vite.

Il y a une vraie problématique aujourd'hui. Il faut faire très attention, mais, comme avec Internet il y a 20 ans, sur plein d'usages où il est plus pertinent de le faire soi même. Il faut utiliser l'IA pour rester productif et rester aussi efficace que possible et arrêter de faire des trucs qui n'ont pas de sens, qui ne sont pas productives ou inutiles, même dans sa vie personnelle.

À côté de ça, il faut déjà être conscient qu’un modèle n'est pas complètement fiable. On doit faire confiance à un tiers, à une entreprise qui l'a créé, qui a un biais culturel, qui a des enjeux politiques, qui a mille caractéristiques propres ; ce n’est pas un outil neutre.

Aussi et surtout, il faut être conscient qu'en envoyant ses données dans un modèle d'IA, on n'a pas de preuve formelle que ces données resteront confidentielles. Il faut faire attention, comme quand on tape quelque chose dans Google : Google peut avoir accès aux données. C'est exactement pareil : quand vous tapez quelque chose dans ChatGPT, vous n'avez pas de preuve formelle de la sécurité de ces données, donc il faut faire attention.

Quel conseil à un dirigeant d'entreprise ?

Je pense qu'aujourd'hui, il faut être extrêmement clair sur la doctrine d'usage. C'est vraiment important, même à l'échelle d'une petite entreprise, d’avoir une doctrine d'usage lorsque on a un nouvel outil comme celui-ci.

Parce qu'on ne peut pas espérer que n'importe qui prenne en main les sujets dont je viens de parler, cet ensemble de risques, et déduise de lui-même, "Ah mon Dieu ! Le nom du client là est dangereux, il ne faut pas que je l'envoie dans le modèle d'IA".

Non, il faut vraiment proposer une manière extrêmement simple pour chaque cas d'usage. Par exemple, écrire un mail de départ en vacances : "Ok, utiliser ChatGPT, c'est d'accord". Par contre, envoyer une proposition commerciale à un client confidentiel dans la défense, "Non, surtout pas. C'est feu rouge".

En fait, c'est assez facile de définir une doctrine d'emploi. À quoi ça sert ? À quoi ça ne sert pas ? Pourquoi c'est bon ? Pourquoi ce n'est pas bon ? Mais il y beaucoup d'employés qui n'ont pas forcément le réflexe d'aller découvrir des vidéos comme celle d'aujourd'hui, ou de poser des questions sur la cybersécurité.

Mon conseil est simple : il faut une vision claire, exhaustive et compréhensible par tous les employés, de bas en haut de la chaîne. Sinon, on laisse place à l'interprétation et cela peut entraîner des erreurs qui coûtent très cher.

Aidez-nous à diffuser la culture de la cybersécurité ! 🎙

Vous souhaitez partager votre expérience ou connaissez quelqu'un à interviewer ?

Reply

or to participate.