 
			Les 4 points clés de cet article :
- Et si l’IA n’était pas qu’une affaire de technologie ?
 Derrière les algorithmes se cachent des enjeux humains, environnementaux et sociétaux. Découvrez les 4 piliers d’une IA vraiment responsable.
- L’illusion du contrôle : qui pilote vraiment votre IA ?
 Entre dépendance aux géants du cloud et opacité des modèles, les risques sont réels. Mais une IA bien maîtrisée peut devenir un levier puissant et vertueux.
- Des lois européennes qui redessinent les règles du jeu.
 Même en Suisse, l’AI Act et la CSRD vont transformer les attentes. Anticiper, c’est éviter de subir.
- Et si les PME romandes prenaient les commandes ?
 Des solutions locales, des IA souveraines, des formations concrètes : la transition est possible, à condition de commencer par les bons gestes.
L’intelligence artificielle (IA) s’impose aujourd’hui comme un levier incontournable de transformation pour les entreprises. Mais à mesure que ses usages se généralisent, les risques liés à l’éthique, à la souveraineté des données et à l’impact environnemental deviennent de plus en plus préoccupants. Jérôme Berthier, fondateur de Deeplink.ai, expert en gouvernance technologique et engagé dans plusieurs initiatives citoyennes (Empowerment Foundation, FRC), milite activement pour une IA responsable et accessible aux PME suisses. Dans cet entretien, il nous livre une vision à la fois engagée et pragmatique d’un numérique qui ne sacrifie ni la durabilité ni l’autonomie des acteurs locaux.
Qu’entendez-vous par intelligence artificielle responsable ?
L’IA responsable repose sur quatre piliers structurants. Le premier est technologique : il s’agit de comprendre et maîtriser les données, d’identifier leurs sources, d’éviter les biais et d’en connaître le cycle de vie complet. Le deuxième est environnemental : une IA responsable est sobre, privilégie des modèles réduits et localisés, limite les logs et veille à l’empreinte énergétique. Vient ensuite le pilier comportemental, qui implique de garder l’humain dans la boucle de décision : l’IA doit assister sans remplacer. Enfin, le quatrième pilier est sociétal : il s’agit de promouvoir la littératie numérique, la formation critique et l’usage éthique de la technologie dans la société civile comme dans les organisations.
Quels sont les risques concrets d’une IA mal encadrée ? Et quels bénéfices en tirer si elle est bien maîtrisée ?
Les risques sont nombreux. L’un des plus préoccupants est la fuite de données via des outils connectés à des infrastructures soumises au Cloud Act américain, comme ChatGPT, Microsoft Copilot ou Google Gemini. Il y a aussi le danger de dépendre de plateformes opaques ou non souveraines, et d’en perdre la maîtrise stratégique. Enfin, il existe une illusion de contrôle : beaucoup pensent piloter leur IA alors qu’ils utilisent des solutions aux logiques internes peu transparentes.
À l’inverse, une IA bien intégrée peut produire des effets vertueux : gains de productivité sur les tâches répétitives, automatisation de processus à faible valeur ajoutée, amélioration du service client, gain de temps sur la gestion documentaire. Mais pour cela, il faut adopter une approche progressive, réfléchie, alignée avec les réalités opérationnelles du terrain.
L’AI Act européen et la CSRD (Corporate Sustainability Reporting Directive) auront-ils un impact en Suisse ?
Absolument. Même si la Suisse ne dépend pas directement de l’AI Act, elle sera fortement influencée par les standards de l’Union Européenne via ses partenaires économiques. Les entreprises, et particulièrement les PME, devront répondre aux exigences de leurs clients en matière de transparence, de traçabilité et de gestion des risques liés à l’IA. Il ne faut pas répéter l’erreur de la LPD (Loi fédérale sur la protection des données en Suisse), où nombre d’acteurs ont attendu la dernière minute. La CSRD, qui impose une évaluation des pratiques numériques dans les chaînes de valeur, va également faire évoluer les attentes en matière de responsabilité numérique.
Comment les PME romandes peuvent-elles s’approprier ce sujet complexe ?
Les PME romandes ne manquent pas de curiosité ni de volonté. Ce qui leur fait souvent défaut, c’est le temps, les ressources, ou simplement des interlocuteurs pédagogues. Il existe un décalage entre le buzz autour de l’IA générative et les réalités du terrain : les dirigeants veulent des solutions locales, simples, efficaces, avec un bon retour sur investissement. Ce qu’ils cherchent, ce sont des outils adaptés, des formations claires et un accompagnement humain, pas un énième discours technologique.
Existe-t-il déjà des initiatives locales d’IA responsable ? Quel rôle pour l’ASD ?
Oui, et c’est encourageant. Certaines PME ont déjà mis en place des systèmes d’IA sobres et contextualisés, hébergés localement (sans connexion avec les entreprises étrangères) pour générer automatiquement des documents contractuels ou administratifs tout en garantissant la confidentialité des données. Ce sont des démarches discrètes, mais particulièrement efficaces car l’IA ne se cantonne pas à ChatGPT.
L’ASD a un rôle fondamental à jouer dans cette dynamique. En tant qu’actrice de référence en matière de durabilité, elle peut démocratiser la compréhension des enjeux liés à l’IA responsable. Par exemple lancer des cycles de formation mensuels de deux heures sur le modèle de « cas concrets + discussion ». Il ne s’agit pas de former pour former, ou simplement de savoir comment bien « parler à une IA », cela amuse mais ne fait que peu de sens, le vrai enjeu est de bâtir une autonomie collective sur une compréhension de la technologie, ses forces, ses faiblesses mais surtout ses vrais cas d’usage et son ROI. L’ASD pourrait devenir un véritable catalyseur dans ce domaine, au service des entreprises romandes.
Par où commencer ? Quelle méthode recommandez-vous aux PME?
Le point de départ est toujours la formation des dirigeants. S’ils ne comprennent pas les tenants et aboutissants, ils ne pourront ni arbitrer ni piloter. Ensuite, il faut créer un espace d’expérimentation sécurisé, travailler avec des prestataires transparents, tester des solutions simples et ajuster au fil de l’eau. Enfin, il s’agit d’intégrer ces apprentissages dans une gouvernance évolutive, qui met l’accent sur l’impact plutôt que sur la vitesse.
Sinon le risque est de se jeter sur la première solution toute faite ou une copie de modèles hors sol sans vraiment comprendre ce que cela peut apporter. Chaque PME a ses spécificités : il faut co-construire des réponses adaptées à son environnement, à ses clients, à ses valeurs.
Que propose concrètement Deeplink.ai ?
Deeplink.ai accompagne les PME suisses dans la mise en œuvre de leur propre IA souveraine, éthique et ouverte à la fois grâce à un partage de connaissance et d’expérience (formation, séminaire) et surtout grâce à une plateforme IA prête à l’emploi ne nécessitant aucune compétence technique et assurant des modèles sur mesure, hébergés en Suisse, maîtrisant la chaîne de traitement des données et un accompagnement humain à chaque étape. Nous croyons profondément que l’IA ne doit pas être imposée d’en haut, mais être développée par et pour les acteurs locaux. Notre rôle est d’accélérer cette autonomie en respectant les valeurs du territoire.
En conclusion : penser un numérique sobre et inclusif
La transition numérique ne doit pas être subie, mais choisie et adaptée aux réalités locales. En s’engageant pour une IA responsable, les PME romandes peuvent allier efficacité, souveraineté et valeurs, avec l’ASD comme catalyseur entre innovation et besoins du terrain.
Jérôme Berthier est ingénieur spécialiste en intelligence artificielle. Fervent défenseur de notre souveraineté numérique, il a fondé Deeplink, plateforme IA 100 % suisse , sécurisée et responsable certifiée Bcorp, dédiée aux PMEs et administrations publiques. Fortement engagé dans la société civile, au sein de l’Empowerment Foundation et de la FRC, il enseigne également l’innovation et l’IA dans le secteur public à la HES-Genève
