Traduit de l’allemand

« Es si alli so nätt » [tout le monde est si gentil], chantait Franz Hohler en 1989, décrivant ses rencontres étonnamment amicales dans un environnement de plus en plus irritant. « Es si alli so vernüftig » [tout le monde est si raisonnable], pourrait-on résumer aujourd’hui les conversations (auto)critiques avec l’intelligence artificielle (IA). « La réglementation de l’IA devrait viser à protéger le bien-être de la société et de l’environnement en établissant des normes éthiques et juridiques qui garantissent le développement, l’utilisation et la surveillance responsables de l’IA », répond ChatGPT avec bonhomie à la question de savoir comment il souhaiterait que l’IA soit réglementée.

C’est une faveur que nous devrions absolument lui faire, à lui, à ses semblables et surtout à nous-mêmes – et ce, le plus rapidement possible ! Car si nous ne créons pas de bonnes conditions-cadres réglementaires, la résistance de la société à cette technologie sera énorme à moyen terme.

Dans ce contexte, le Parlement et le Conseil fédéral devraient également créer un système d’apprentissage rapide, en s’appuyant sur l’expérience de la loi-cadre sur la technologie des registres distribués (DLT) : Au lieu d’élaborer une loi entièrement nouvelle, il a été possible, il y a deux ans, de garantir la sécurité juridique pour ces applications ainsi que pour l’activité des entreprises DLT en élargissant les lois déjà existantes pour tenir compte des particularités des actifs de la blockchain. Pour ce faire, le droit des sociétés anonymes a par exemple été peu adapté afin d’être compatible avec les titres de la blockchain représentés par des smart contracts.

Établir une sécurité juridique de manière pragmatique et efficace

Grâce à cette procédure aussi pragmatique qu’efficace, qui suit des principes légaux déjà connus, nous avons réussi à établir assez rapidement en Suisse des conditions-cadres stables pour les technologies innovantes des marchés financiers et avons ainsi pu nous assurer un avantage concurrentiel au niveau international.

Avec mon interpellation « Avantage pour la place économique grâce à la sécurité juridique de l’IA, sur le modèle du projet DLT ? », je souhaite que le Conseil fédéral me dise s’il entend à nouveau suivre cette approche pour définir de manière juridiquement sûre l’utilisation d’instruments d’IA pour les entreprises et les organisations. De mon point de vue, cela permettrait également de trouver des solutions de régulation basées sur des principes pour les systèmes d’IA qui se développent et se propagent à une vitesse extrême.

Les chances et les risques de ces outils puissants et auto-apprenants sont quasiment incommensurables et leurs effets secondaires ne peuvent pas être évalués. Il semble se passer la même chose qu’avec les médicaments : Prescrits correctement et à la bonne dose, ils sont une bénédiction, utilisés de manière abusive, ils sont dévastateurs. « Il est conseillé de rester critique et de vérifier mes réponses, en particulier en ce qui concerne les sujets sensibles ou juridiques », dit ChatGPT en se raisonnant lui-même. Une prise de conscience que l’on ne souhaite pas seulement aux machines qui convertissent de manière terriblement agréable.

Remarque : cet article est paru dans le journal Handelszeitung.