Post de Benoit Raphael

Voir le profil de Benoit Raphael, visuel
Benoit Raphael Benoit Raphael est un Influencer

J’explore l'intelligence artificielle et je partage !

Open source ou "open washing" ? Des chercheurs alertent sur le flou entretenu par certains grands acteurs de l'IA pour échapper à la règlementation européenne. L'AI Act, voté le mois dernier, prévoit d'importants avantages pour l'Intelligence artificielle dite "open source". Notamment sur les obligations de transparence. Sauf que les IA dites "open-source", comme le français Mistral ou encore Llama de Meta, ne sont pas si ouvertes que ça. C'est la mise en garde de chercheurs néerlandais. Leur étude révèle que les modèles open-source en vogue ne partagent que les "poids" finaux de leurs IA. Le code source, les données d'entraînement, la documentation ? Rien n'est partagé. De quoi garder le contrôle tout en paraissant ouvert. On appelle ça, "l'open washing". Ce flou artistique est évidemment tentant pour échapper aux obligations. L'AI Act impose en effet aux géants de l'IA générative généraliste (comme ChatGPT) une lourde documentation et des obligations de transparence, notamment sur les données d'entrainement. Mais les modèles "open source" y échappent. Sauf que ces derniers ne sont pas forcément plus transparents ! On peut le comprendre : partager les données d'entrainement peut exposer ces modèles à des conflits liés aux droits d'auteurs, ou à des données "problématiques" pouvant conduire à des biais dans les réponses. Selon les chercheurs, Bruxelles doit adopter une définition sans ambiguïté de "l'open source", avec des critères stricts sur chaque dimension : code, données, méthodes... Les vrais projets ouverts partagent tout sans réserve. Ils permettent à la communauté scientifique de les auditer, les reproduire, les améliorer et de prévenir les risques. Reste un autre débat : une IA 100% ouverte est-elle une "bonne" chose ? Pas forcément. Mais, estiment les chercheurs, le terme trompeur d'IA "ouverte" ne devrait pas exempter ces modèles d'une obligation d'ouverture et de transparence pour permettre l'audit, la reproductibilité scientifique et une compréhension éclairée des capacités et des risques par le public. Qu'en pensez-vous ? (Source : https://lnkd.in/gP7s5qyX)

  • Aucune description alternative pour cette image
Yoran Brault

Associé arNuméral – CTO BubbleTeach [AI] | Nous transformons vos savoirs documentaires en capsules de formation courtes, faciles à assimiler par vos acteurs terrain.

1 mois

C'est vrai que l'on devrait davantage parler d'OpenWeight que d'OpenSource. Mais il ne faut pas non plus jeter le bébé avec l'eau du bain et oublier que ces modèles permettent à de nombreux acteurs, dans de nombreux domaines, de développer les leurs. En cela, on se rapproche beaucoup de l'esprit de l'OpenSource. De plus, si l'on accepte l'idée qu'à terme, ces modèles feront partie intégrante de notre quotidien, ne serait-il pas dangereux que leur fabrication soit réservée à cette poignée d'acteurs disposant de la capacité de calcul nécessaire ? Certes, on connaîtrait peut-être une partie de leur dataset, mais cela n'empêcherait pas ces modèles d'être alignés avec les intérêts économiques de leurs auteurs. Personnellement, je crois plus à la diversité qu'à la régulation, mais ce n'est qu'un point de vue.

Alexis BOGROFF

Data Science Lecturer and Mentor

1 mois

Attention, les modèles open-source partagent les poids ET le code, sans quoi on ne pourrait pas utiliser le modèle. Effectivement il reste la question de la documentation et des données.

Antoine Jambart

Formation de Formateur & Formations LinkedIn en entreprise depuis 2010 🤩

1 mois

J'en pense que nous sommes encore plein Far West et que cela va durer quelques années. Au grand dam de nos données et de nos droits....

Philippe Sauvaget

CTO COMMOD | Ingénieur IA & expert en développement logiciel | Réalité Virtuelle | Métavers | Formation | Transformation numérique

1 mois

Il y a aussi des initiatives intéressantes comme pleias, qui propose un corpus de textes du domaine public permettant d'entraîner des modèles de langage tout en respectant les lois sur les droits d'auteur. Avec un LLM open source en local entraîné avec un dataset public (ou avec une archi type RAG), ça devient intéressant !

SILVAIN E.

Founder CEO Zenity

1 mois

Benoit Raphael sujet très intéressant 👍 Michel-Marie MAUDET (OpenLLM 🇫🇷 🇪🇺 ) est très bien placé sur le sujet pour ouvrir le débat avec toi tout comme il a eu la gentillesse de le faire sur notre podcast #QualityTime by ZENITY https://www.linkedin.com/posts/zenity-test_qualitytime-chatgpt-qualitytime-activity-7186634597030371328-m8UU

💡Jérôme Dron 🤖

J'accompagne les entreprises et entrepreneurs à profiter de l'IA

1 mois

Merci pour le post. Effectivement, c’est un vrai débat qui je l’espère prendra de plus en plus de place pour plus de transparence au sens large ! En tant que professionnel utilisant l’IA, personnellement il me tarde d’en savoir plus

Virginie Guignard Legros

Visionnaire et coordinatrice de projets sociaux, urbains et technologiques (Intelligence collective, territoires apprenants, blockchain, AI, VR, cybersécurité) innovants en Afrique, Suisse, Europe, Inde et USA,

1 mois

Je suis totalement opposée à la diffusion et aux partages des codes AI. 1. L’AI est aussi sensible que la cybersécurité et on ne demande pas aux acteurs de la cybersécurité de partager leurs codes. 2. Chaque AI est une construction unique et il suffit d’une infime modification dans sa structure pour en faire un outil positif ou négatif. 3. Une AI est une sorte de code ADN propre à chaque créateur. Elle fonctionne selon une logique unique. Seul le créateur d’une AI peut la modifier. 4. Modifier une AI demande d’avoir le même niveau de conscience ou un niveau supérieur au niveau de conscience du créateur de l’AI. Je n’ai jamais vu aucune formation qui enseigne le niveau de conscience. 5. Ceux comme ChatGPT qui vous donne des bricks clefs en main. Considérez que c’est un cadeau qu’ils vous font. Ils n’ont pas l’obligation de le faire. Ils pourraient commercialiser autrement. 6. Contrôler une AI, pourquoi pas mais par des gens qui ont le niveau de conscience et le niveau de connaissance pour le faire avec la garantie de la confidentialité absolue. 7. L’idéal est de poser des points de contrôles automatisés et créés par des communautés multidisciplinaires ayant des niveaux de conscience fiables et incorruptibles.

François-Xavier Nion

CTO | Advisor | Mentor | Startup scaler

1 mois

Pour les entreprises désireuses d’autonomie et de légalité, le choix n’est plu au RAG ni au fine tuning, s’agissant de #llm. Des #ia plus spécialisées sont une option plus accessible. S’il s’agit pour elle de réelle autonomie, il s’agira de reprduier le mode d’emploi de stanford pour construire from scratch (et avec un corpus) leur LLM maison Pour aller plus loin: https://github.com/tatsu-lab/stanford_alpaca https://24pm.com/gpt/961-comment-des-chercheurs-de-stanford-ont-cree-un-chatgpt-pour-600-dollars

Pierre Grange

Associate Director CO&OP

1 mois

Ce papier, comme celui de Mozilla et de Columbia de fin mai , met en évidence la nécessité d'avoir une définition claire et partagée de l'open source. La navigation en eaux troubles de certains acteurs au grès de considérations économiques ou réglementaires (légitimes par ailleurs pour des entités privées) ne doit pas etre entretenue par le législateur. L'EU et plus particulièrement la France se font les champions de l'Open Data, la coherence voudrait que son exploitation par le secteur public s' appuie sur des solutions Open Source Souveraines 🇫🇷 🇪🇺. https://blog.mozilla.org/en/mozilla/ai/new-framework-for-ai-openness-and-innovation/

Voir plus de commentaires

Identifiez-vous pour afficher ou ajouter un commentaire

Explorer les sujets