Algorithmes : « nous devons créer les conditions d’une intelligence humaine responsable ». Par Guillaume Buffet, U Change

Guillaume Buffet nous a laissé reprendre une tribune qu’il a publiée dans le journal Le Monde . Il y rappelle que aucune école de formation à la vie publique ou politique ne comprend les enjeux derrière le code et souligne que « l’urgence est de former les codeurs au politique et vice-versa, pour arriver à concilier éthique numérique et régulation ». Nous avons voulu donner la parole à Guillaume parce que, pour nous, ces enjeux liés au numérique en général et au code en particulier dépassent déjà l’entreprise, le citoyen et la société. Et qu’il est urgent pour les entreprises – celles qui se voudront contributives en tout cas – de comprendre ces enjeux, et, si l’on peut dire, de savoir lire entre les lignes – de code – pour ne pas provoquer les dégâts – sociétaux pour grand nombre d’entre eux – totalement non voulus lors de la conception des outils et du codage mais néanmoins dévastateurs. Explications, par Guillaume Buffet :

Reconnaissance faciale, assistants vocaux, objets connectés… le déploiement massif des algorithmes dans nos vies interroge quant à leur impact sur l’individu et la société en général. Face à ces dérives déjà avérées et prévisibles des outils numériques au potentiel encore inexploré, le réflexe des Etats est de vouloir élaborer un cadre de régulation. Or, au vu du périmètre à organiser, du flux de données à surveiller et de la vitesse de leur évolution, mettre simplement en place le contrôle du respect des règles s’annonce déjà comme une gageure.

En parallèle, de nombreuses personnes appellent de leurs vœux l’émergence de comités d’éthique permettant de guider les futures évolutions du numérique, des algorithmes et de l’intelligence artificielle (IA). Rassembler des experts indépendants, reconnus et profiter de leur recul pour dessiner les contours de ce que la société peut ou ne doit pas admettre, semble un point de départ indispensable. Mais là encore, sans réflexion et consensus globaux, impossible d’imaginer trouver un accord pour un « numérique » au bénéfice de l’intérêt général.

De toute évidence, faire évoluer la régulation numérique ou mettre en place une surveillance éthique est comparable au mythe grec des Danaïdes, condamnées à remplir à l’infini un tonneau dont le fond était percé… Mais au-delà de ça, deux autres éléments posent problème : le fonctionnement de la production des données, et la nature même du sujet évalué.

Les calculs quasiment à l’infini

De fait, le développement de code informatique est réalisé en équipe. Pour corriger des « bugs », améliorer sa propre efficacité, apporter de nouvelles fonctionnalités, s’adapter aux évolutions du matériel ou des systèmes d’exploitation, ce code est en perpétuelle évolution. Dès qu’un membre d’une équipe de développement estime qu’une nouvelle séquence est prête à être intégrée à un programme plus vaste, il en établit la demande, soit au collectif, soit à un individu chargé de la « valider », c’est-à-dire vérifier qu’elle n’a pas d’impact négatif sur le fonctionnement global du programme.

Cette opération, appelée « pull request », est quotidienne à tous les développeurs. Or, c’est à chacune de ces étapes que la vérification de « conformité » éthique ou juridique des nouvelles lignes de code devrait être effectuée. On comprend que soumettre chaque évolution à un organisme tiers, tel qu’un comité d’éthique, est inimaginable et mortifère pour l’entreprise. Pire, la nature même du sujet à évaluer – le code – mais aussi l’interprétation de sa destination et de la question de sa documentation le rendent quasiment opaque à tout organe juridique ou éthique étranger à ce monde.

Mesurer l’impact d’un algorithme d’IA, dont le nombre de « possibles » est quasiment infini, n’est également pas envisageable. Ainsi, celui qui serait chargé d’évaluer un code pour en vérifier l’impact et la « légalité », même à considérer que ce code soit limpide pour lui, ne pourrait mener à bien sa mission faute de pouvoir imaginer le champ des possibles.

Les enjeux du code

En la matière, l’absence de décision/régulation revient à valider la situation actuelle comme celle souhaitée et donc à confier aux développeurs informatiques les clefs du destin de nos sociétés humaines. Un développeur informatique, data scientist ou concepteur d’un algorithme d’intelligence artificielle n’est pas naturellement moins – ni plus – compétent ou éclairé que tout autre citoyen pour mesurer l’impact de ses décisions individuelles sur le collectif.

Si certains, comme dans le mouvement Open Source, ont démontré avec les années leur volonté de travailler pour le bien collectif, nombre d’entre eux n’ont pas conscience de l’impact des décisions qu’ils prennent, ce volet n’étant simplement pas à l’ordre du jour de la mission qui leur incombe. Pour autant, l’impact des décisions d’un développeur est sans commune mesure. Une situation incongrue lorsqu’on y réfléchit : alors que des cours d’éducation civique sont dispensés aux plus jeunes pour les sensibiliser au contexte politique global, aucune école de « code » n’intègre à sa formation un volet significatif de sensibilisation politique.

Et aucune école de formation à la vie publique ou politique ne comprend les enjeux derrière le code. Faut-il alors surveiller ou laisser le bon sens éclairer les développeurs ? Le G7 souhaite voir des comités d’éthique émerger. La Commission européenne propose des principes éthiques pour l’IA. Mais, dans l’état actuel de nos connaissances, il est clairement impossible de contrôler la production des développeurs sur le plan éthique, sauf à limiter les libertés individuelles et in fine figer le monde dans sa situation actuelle.

Pour une intelligence humaine responsable

Face à un enjeu aussi vital, pourquoi ne pas lancer un appel à la coopération entre ceux formés à concevoir le code et ceux qui vont devoir l’accepter dans la vie publique ? Car si l’on pense que notre monde se doit de progresser, il n’est d’autre possibilité que de libérer les énergies liées à l’intelligence artificielle. Des libertés assorties en premier lieu par la formation « politique » de tous, développeurs comme chefs d’entreprises pour les sensibiliser à la responsabilité qui leur incombe, lorsqu’ils écrivent les lignes de code des constitutions numériques de ce nouveau monde en réseau.

Des libertés qui exigent en second lieu une contrepartie : la redevabilité des acteurs. Leur devoir de rendre compte et d’assumer les conséquences de leurs décisions, en cas de demande, de contrôle ou d’incident. A l’heure de l’intelligence artificielle, nous nous devons de créer les conditions d’une intelligence humaine responsable.

Guillaume Buffet, président de U Change, administrateur du Syntec numérique et vice-président de l’association Renaissance numérique

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s