La France ne développera pas de "robots tueurs"- Discours de la Ministre des Armées sur l’IA

La ministre des Armées, Mme Florence Parly, a présenté la stratégie de la France sur l’Intelligence artificielle à l’Institut de Convergence DATA IA à Saclay (Essonne), le 5 avril 2019.

Dans son discours sur l’Intelligence artificielle (IA) et la défense, la ministre des Armées a déclaré que l’IA est une révolution qui doit être conduite en pleine conscience, avec pragmatisme et responsabilité. La construction d’une « IA performante, robuste et maîtrisée », est nécessaire pour « ne jamais être dépassé par l’ennemi, pour que nos armées soient plus fortes et pour protéger les Français. »

JPEG

La France ne développera pas de « robots tueurs »

En écho aux inquiétudes sur les systèmes d’armes létaux autonomes (SALA) que certains nomment « robots tueurs », la Ministre a réaffirmé la position de la France :

«  Ces systèmes, je le dis de façon très catégorique, n’existent pas aujourd’hui sur les théâtres d’opération. Mais pour autant le débat est légitime. C’est d’ailleurs la France qui l’a introduit en 2013 aux Nations-Unies, dans l’enceinte de la convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques. Et nous souhaitons que les discussions se poursuivent dans ce cadre multilatéral, le seul qui pourra aboutir à un encadrement des systèmes autonomes militaires, c’est le seul qui soit universel, crédible, efficace. Nous ne pouvons pas écarter le risque que de telles armes puissent être développées, un jour, par des Etats irresponsables et tomber entre les mains d’acteurs non-étatiques. La nécessité de dégager un consensus robuste avec tous les autres Etats du monde n’en est donc que plus impérieuse.

La position française est sans ambigüité, le président de la République a été parfaitement clair : la France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain.

De tels systèmes sont fondamentalement contraires à tous nos principes. Ils n’ont aucun intérêt opérationnel pour un État dont les armées respectent le droit international, et nous n’en déploierons pas. Terminator ne défilera pas au 14 juillet.

Nous développerons l’intelligence artificielle de défense selon trois grands principes : le respect du droit international, le maintien d’un contrôle humain suffisant, et la permanence de la responsabilité du commandement. »

Création d’un comité d’éthique

Si l’IA permet de mieux garantir la protection des Français, son développement doit se faire avec responsabilité selon trois grands principes : le respect du droit international, le maintien d’un contrôle humain suffisant, et la permanence de la responsabilité du commandement. La ministre Florence Parly a annoncé la création en 2019 d’un comité d’éthique ministériel sur les sujets de défense. Outil d’aide à la décision et à l’anticipation, il traitera en premier lieu des questions posées par les technologies émergentes et leur emploi par l’homme dans le domaine de la défense. Les interrogations éthiques multiples liées à l’évolution du métier des armes et des espaces de conflictualité pourront également lui être soumises.

Enfin, pour conclure son discours, la ministre des Armées a rappelé que l’Europe devait prendre la tête des nouvelles ruptures technologiques, y compris dans le domaine de la défense. Elle a salué les initiatives comme le Conseil européen de l’innovation ou le Fonds européen de défense.

Retrouvez l’intégralité du discours de la Ministre :
Discours de la Ministre des armées sur l’Intelligence Artificielle (5 avril 2019)

PDF - 493.5 ko
(PDF - 493.5 ko)

publié le 09/04/2019

haut de la page