Have the article read by OpenAI (Beta). Please note that AI translations may take some time to process.

L’Europe est en train de réglementer l’intelligence artificielle (IA), de renforcer les normes de sécurité pour les chatbots comme ChatGPT et d’imposer un cadre juridique aux développeurs et aux fabricants qui souhaitent opérer sur le marché intérieur de l’UE – un projet ambitieux sur un marché mondial où les États-Unis et la Chine ne mettent aucun frein au progrès technologique. La Commission européenne a présenté il y a deux ans déjà un nouveau cadre réglementaire, l’Artificial Intelligence Act, en cours de négociation à Bruxelles et qui est censé devenir le tout premier cadre juridique pour l’IA.

Le 28 avril, les groupes politiques du Parlement européen sont parvenus à un accord provisoire sur le cadre légal de l’UE en matière d’IA, qui se concentre principalement sur les « modèles de fondation », des éléments de connaissance primaires qui servent de base aux technologies d’IA. Les députés souhaitent que ces éléments soient strictement « conçus et développés dans le respect du droit de l’UE et des droits fondamentaux, y compris la liberté d’expression ».

Le texte basé sur l’accord informel doit maintenant être soumis au vote de la commission du marché intérieur du Parlement européen, le 11 mai. Un vote en séance plénière sur la position de négociation du Parlement européen est attendu en juin, suivi de négociations avec le Conseil et la Commission.

Des possibilités illimitées contre des risques imprévisibles

Sabine Bendiek, directrice des ressources humaines du groupe de logiciels SAP, a déclaré que l’IA pourrait apporter une énorme contribution à la productivité et soulager les gens. L’AI pourrait ainsi prendre en charge les tâches extrêmement monotones et répétitives. « Nos collaborateurs peuvent alors vraiment se concentrer sur ce qui fait la force de l’être humain : la créativité, et la capacité d’évaluer les résultats depuis une autre perspective pour les mettre en œuvre de manière adéquate. »

Mais quid de tout ce qui est actuellement développé et le sera à l’avenir sur la base d’algorithmes et d’intelligence artificielle ? Qu’en est-il de ChatGTP et des voitures à conduite autonome ? Quel est le risque que l’IA soit utilisée pour la diffusion de désinformation ? Plusieurs députés européens ont récemment appelé à un sommet mondial sur les dangers de l’intelligence artificielle.

Le mois dernier, le ministre allemand du Numérique Volker Wissing avait insisté pour qu’un cadre juridique pour l’IA soit rapidement mis en place en Europe. « Nous devons réagir intelligemment et réglementer raisonnablement l’intelligence artificielle avant qu’il soit trop tard. Cela ne doit pas, une fois de plus, prendre des années », a déclaré Wissing à l’hebdomadaire Bild am Sonntag. Une porte-parole du ministère fédéral de l’Intérieur a déclaré au Handelsblatt : « Il est essentiel de trouver un équilibre entre l’ouverture à l’innovation et un cadre juridique clair qui définisse des normes pour une IA digne de confiance. »

« La réglementation de l’intelligence artificielle se trouve actuellement à un niveau très bas et doit être développée à une vitesse maximale », a déclaré Dobroslav Dimitrov, président de l’Association bulgare des entreprises de logiciels (BASSCOM) et de l’Association bulgare du patronat des technologies innovantes (BRAIT). Selon lui, l’initiative est vraiment en retard, et tous les décideurs au niveau du gouvernement, des entreprises et des établissements d’enseignement devraient se pencher sur les développements en cours et s’adapter en continu à l’évolution de la situation.

Dimitrov a comparé l’IA à l’énergie nucléaire : « Elle peut mettre en mouvement la planète entière mais peut aussi la réduire à néant si elle est utilisée à des fins destructrices. Il en va de même pour l’intelligence artificielle. »

Le ministre italien du Développement économique, Adolfo Urso, a déclaré qu’il était nécessaire d’élaborer de nouvelles règles afin de mieux définir la relation entre l’homme et la machine, car pour la première fois, les machines semblent avoir l’avantage.

L’examen de ChatGPT provoque une accélération de la législation sur l’IA

Urso a rappelé ce qui s’est passé avec le chatbot d’IA ChatGPT, que l’Italie avait temporairement interdit en mars avant de l’autoriser à nouveau fin avril. Pour lui, cet incident a « mis en évidence les pièges d’un secteur qui attend toujours une réglementation stricte indispensable ». Il a ajouté que la restriction provisoire de ChatGPT par l’autorité italienne de protection des données « avait renforcé la sécurité des utilisateurs ».

Au début du mois dernier, le ministre français de la Transition numérique, Jean-Noël Barrot, a déclaré que ChatGPT était en infraction avec le règlement général de protection des données de l’UE (RGPD), mais qu’il était préférable d’ « encadrer » le bot plutôt que de l’interdire. Mi-avril, la Commission nationale de l’informatique et des libertés (CNIL) française a décidé d’ouvrir une enquête sur cinq plaintes déposées contre le chatbot.

Le Comité européen de la protection des données (CEPD), l’équivalent européen des autorités nationales de protection des données dans les différents États membres et responsable de leur coordination, a annoncé la création d’un groupe de travail spécifique pour promouvoir la coopération européenne dans ce domaine.

Utilisation de l’IA au travail

Urso a récemment déclaré que le secteur de l’IA en Italie, par exemple, avait augmenté de 32 % en un an pour atteindre une valeur de 500 millions d’euros. Le secteur « est désormais au cœur des programmes de développement des entreprises de toutes tailles qui investissent dans le traitement intelligent des données, l’IA vocale et la vision par ordinateur », a-t-il déclaré.

Dans le paysage entrepreneurial espagnol au sens large, l’intelligence artificielle est utilisée dans 8 % des entreprises de plus de 10 employés. Selon les données publiées par l’office statistique de l’UE Eurostat pour 2021, ce chiffre correspond à la moyenne européenne. Selon une étude réalisée en 2022 par la multinationale espagnole de services financiers Banco Bilbao Vizcaya Argentaria (BBVA), les processus de production, les stratégies de marketing et de distribution, la cybersécurité et l’organisation des processus de gestion sont les principales applications de l’IA dans les entreprises espagnoles.

L’Association croate pour l’intelligence artificielle (CroAI) regroupe des entreprises et des start-ups leaders dans le domaine de l’IA en Croatie. Selon l’association, fin 2022, plus de 130 start-ups du pays étaient impliquées dans le développement et l’application de l’intelligence artificielle. Alors qu’il y a trois ans, 220 entreprises utilisaient l’IA, ce chiffre est passé à environ 440 en octobre 2022, annonce CroAI.

L’Europe, un acteur mondial de l’IA

Le ministre bulgare par intérim de l’Économie et de l’Innovation, Alexander Pulev, a récemment noté que la Bulgarie pourrait devenir une plaque tournante régionale pour le flux d’informations numériques en provenance d’Asie. Il a en outre déclaré que la Bulgarie et le gouvernement américain avaient signé une déclaration visant à améliorer la qualité de l’infrastructure numérique bulgare, en mettant l’accent sur la cybersécurité.

Le président de la fondation de Bosnie-Herzégovine (BiH) Société des valeurs partagées, Zlatko Lagumdžija, a souligné l’importance d’intégrer la transformation numérique de l’UE sans se limiter aux États membres mais en incluant aussi dans ses projets les pays voisins, comme les Balkans occidentaux, selon les mêmes principes.

Lors d’une conférence à Cambridge, M. Lagumdžija a déclaré que c’était le seul moyen pour l’UE de montrer qu’elle était capable de mener ces processus au niveau mondial, par exemple aux côtés des États-Unis et du Japon.

L’UE était déjà engagée profondément dans le processus de création d’un cadre juridique en ligne et doit maintenant revenir à ses esquisses pour déterminer comment réglementer efficacement l’IA. La lutte pour une interdiction générale de l’utilisation des technologies de reconnaissance faciale de l’IA sans le consentement des personnes concernées risque d’être particulièrement âpre, car le Conseil de l’UE pourrait imposer des exceptions en invoquant des clauses de sécurité nationale.

Cette rubrique paraît le vendredi. Le contenu est basé sur les informations des agences participant à l’enr.