Les solutions d’intelligence artificielle seront désormais partiellement autorisées par l’Union Européenne. Celles-ci seront cependant soumises à des procédures de transparence très strictes.

Les législateurs de l’Union européenne ont présenté un projet de loi visant à contrôler les technologies d’intelligence artificielle. Le monde des crypto-monnaies pourrait également être impacté ainsi que les cryptos IA.

Selon ce projet de loi, ce type d’outils présenterait un haut risque. Ils ne seraient cependant pas pour autant totalement interdits.

L’utilisation de ChatGPT sera contrôlée

Les outils d’IA générative tels que ChatGPT ou Midjourney auront pour obligation de divulguer toute utilisation de matériel protégé par les droits d’auteur. Le ChatGPT est un outil très utile actuellement qui facilite le trading des cryptos et leur fiabilité.

De même, les développeurs d’IA ont également fait l’objet d’un examen minutieux en Europe.

L’Italie est quant à elle le premier pays occidental à interdire temporairement ChatGPT.

La semaine dernière, les régulateurs allemands ont suivi la tendance en exigeant des réponses de l’OpenAI concernant ses intentions. Ceux-ci demandent des garanties sur sa capacité à se conformer aux lois sur la confidentialité des données inscrites dans le Règlement général sur la protection des données ou RGPD de l’UE.

Marit Hansen, commissaire de l’État du Schleswig-Holstein, situé dans le nord de l’Allemagne, a déclaré aux journalistes de l’AFP que les régulateurs allemands veulent savoir si une évaluation de l’impact sur la protection des données a été effectuée.

Ce dernier veut aussi s’assurer que les risques liés à la protection des données sont sous contrôle. Ce qui pourrait être un atout pour le développement également de la blockchain et du monde crypto.

Les États-Unis aussi concernés

Wojciech Wiewiórowski, le contrôleur européen des données, prédit une situation difficile pour les entreprises d’IA basées aux États-Unis. Ces dernières font actuellement l’objet de plusieurs enquêtes pour des violations présumées du GDPR.

Selon Wojciech, l’OpenAI se trouve aujourd’hui dans une position délicate. Alors que les régulateurs européens cherchent à sévir, les législateurs américains pourraient s’inspirer des développements européens pour un modèle local.

Mira Murati, directrice de la technologie chez OpenAI, estime que les régulateurs gouvernementaux devraient être très impliqués dans l’élaboration de normes de sécurité pour le déploiement de modèles d’IA avancés tels que ChatGPT. Toutefois, elle ne pense pas que la pause de six mois proposée pour le développement soit une bonne solution.