OpenAI prévient qu’il pourrait quitter l’UE en raison de la loi sur l’IA
Le PDG d’OpenAI, Sam Altman à l’origine de ChatGPT a déclaré qu’il pourrait envisager de quitter l’Europe s’il n’était pas en mesure de se conformer aux prochaines réglementations de l’Union européenne en matière d’intelligence artificielle.
La législation prévue par l’UE pourrait être la première à réglementer spécifiquement l’IA et pourrait exiger des entreprises d’IA générative qu’elles révèlent quels documents protégés par le droit d’auteur ont été utilisés pour entraîner leurs systèmes à créer du texte et des images.
Sam Altman craint qu’il soit techniquement impossible pour OpenAI de se conformer à certaines des exigences de sécurité et de transparence de la loi sur l’IA.
« Le projet de loi européen sur l’IA est trop réglementé », a déclaré Sam Altman sur Reuters. « Mais nous avons entendu dire qu’il allait être revu à la baisse.
Outre les discussions sur la réglementation, l’UE veut inciter les entreprises à s’engager volontairement. Pour ce faire, la Commission prévoit de conclure un contrat-cadre avec Google et d’autres entreprises.
Lors d’un événement organisé à l’University College London, Altman a ajouté qu’il était optimiste quant à la capacité de l’IA à créer davantage d’emplois et à réduire les inégalités. Car, comme le souligne Altman, trop de réglementation pourrait nuire à la diversité dans ce domaine – et notamment aux petites entreprises et au mouvement open source.
OpenAI n’est pas la seule entreprise à faire preuve d’une prudence particulière dans ce domaine au sein de l’UE. Par exemple, Google a déjà publié son propre équivalent de ChatGPT, Bard, dans 180 pays, mais pas dans l’UE. Aucune raison n’a été donnée, mais en coulisses, il a été question de prudence face aux prochains travaux de réglementation de l’UE sur l’IA.
Sam Altman tient donc un double discours:
Sam Altman, patron d’OpenAI, le concepteur de ChatGPT, a lui-même reconnu être “un peu effrayé” par sa création si d’aventure elle était utilisée pour de “la désinformation à grande échelle ou des cyberattaques”. “La société a besoin de temps pour s’adapter”, avait-il déclaré sur ABC à la mi-mars.
“Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne — pas même leurs créateurs — ne peut comprendre, prédire ou contrôler de manière fiable”, estiment les experts dans la pétition. Ils s’interrogent sur le potentiel de nuisance de ces IA, mais aussi sur l’automatisation à marche forcée de nombre d’emplois, au point d’évoquer l’éventualité d’une “perte de contrôle de notre civilisation”.
Tiré de « Elon Musk et des centaines d’experts réclament une pause dans l’IA, articles publié sur « Les numériques »
(https://www.lesnumeriques.com/intelligence-artificielle/elon-musk-et-des-centaines-d-experts-reclament-une-pause-dans-l-ia-n208521.html)
Conclusion: Altman se prétend horrifié par les conséquences de son invention mais refuse toute réglementation visant à protéger la population. Il veut faire du profit par tous les moyens mais, face au tollé déclenché par son produit, il est contraint de (donner l’impression de) faire amende honorable. Les quelques applications utiles de son invention ne pèsent pas lourds à côté de la montagne de problème qu’elle cause.