Pessimiste et optimiste s’affrontent sur l’intelligence Artificielle ! quelle régulation ?

En octobre dernier, L'OCDE a réuni des représentants du gouvernement, de l'industrie, des universitaires et d'autres intervenants pour examiner la suite sur l'intelligence artificielle.

On ne sait pas jusqu'ou l'intelligence artificielle va nous amener, mais nul doute qu'elle transformera toutes les facettes de la vie humaine. L'un des principaux problèmes avec l'IA est la confusion qui règne sur sa définition : ce qu'elle est exactement et ce qu'elle peut et ne peut pas faire réellement. Mais, pour vraiment comprendre ce qu'est l'IA, il faut aborder clairement le point suivant : comment les techniques actuelles d'IA, comme l'apprentissage profond, diffèrent de l'intelligence humaine.

 

Un problème de définition

Il est apparu clairement dans les discussions que c'est principalement centré sur l'apprentissage automatique et en particulier sur l'apprentissage profond. Les logiciels d'apprentissage profond apprennent à  reconnaître les modèles à  partir des données. Google, par exemple, l'utilise pour reconnaître les animaux de compagnie via leurs visages. Une autre société, DeepL, utilise l'apprentissage profond pour faire des traductions de haute qualité.

Les conférenciers ont souligné que l'apprentissage profond ne fonctionne que parce qu'il utilise une grande quantité de données traitées sur des ordinateurs puissants. Il est devenu une technique performante parce que les entreprises ont accès à de grandes quantités de données et, en même temps, à de grandes quantités de puissance de traitement bon marché.

Quid des données de l'IA ?

Avec l'utilisation de grandes quantités de données, la question de la protection de la vie privée et de l'utilisation de ses données se posent. Aux états-Unis, par exemple, l'apprentissage profond est utiliser pour calculer à quel point un délinquant doit être condamné dans les affaires judiciaires. Il n'y a aucun moyen pour quiconque de savoir comment le logiciel est arrivé à chacune des décisions, en particulier quels facteurs dans les données ont été les plus importants dans la prise de cette décision.

Risques de biais

Joanna Bryson, chercheuse en IA, a précédemment montré que les données utilisées pour la formation à l'apprentissage automatique contiennent toute une série de biais, y compris ceux liés à l'origine ethnique et au sexe. Cela a de graves conséquences sur les décisions qui sont prises lorsque les systèmes d'IA sont nourris de ce type de données. Les données biaisées renforceront encore le biais dans les décisions de ces systèmes.

D'autres chercheurs ont montré qu'il est possible de corrompre les données utilisées pour apprendre à la machine : par exemple, en trompant des voitures autonomes en ajoutant du ruban argenté à un panneau de signalisation, ce qui pourrait déclencher une action inappropriée du véhicule.

Si une voiture autonome cause un accident, qui devrait être tenu pour responsable ?

Qui est responsable ?

Une autre série de questions importantes se pose en ce qui concerne la responsabilité du fait des produits et la responsabilité des entreprises. Si une voiture autonome cause un accident, qui devrait être tenu pour responsable ? Le fabricant de la voiture, le développeur de logiciel du composant IA qui a fait défaut, ou le propriétaire du véhicule ? Encore une fois, il y a eu beaucoup de discussions sur le sujet, mais aucune conclusion solide, même si l'on s'attend à ce que la responsabilité incombe aux fabricants de voitures.

Dans cette discussion sur l'IA, on a aussi souligné la possibilité que son impact soit exagéré. Les applications qui ont le plus d'impact aujourd'hui sont des exemples de reconnaissance de formes et non pas relatives à l'intelligence générale. Cette capacité humaine est encore très utile dans de nombreux domaines tels que la science, la médecine, la cyber sécurité et bien d'autres encore.

Que devrait donc faire le gouvernement ?

En ce qui concerne ce que les gouvernements devraient faire, il y a eu un accord implicite selon lequel ils devraient permettre à  l'IA d'être utilisée pour les avantages évidents qu'elle procure à la société. Il convient de contrebalancer cette situation en minimisant les risques liés à  la collecte accrue de données à caractère personnel et les risques liés à  la manière dont l'IA utilise effectivement ces données.

Il y a beaucoup d'autres sujets de discussion qui deviennent de plus en plus importants pour les gouvernements et le public à propos du rôle de l'IA dans leur société. Ce qui en fait un défi, c'est que l'IA touche plus ou moins tous les aspects de la vie. Ce que nous ne savons pas encore, c'est jusqu'ou ira le développement de l'intelligence artificielle et, en fin de compte, jusqu' à  quel point elle réussira à devenir une intelligence généralisée, de type humain.