[article] Qui est responsable si un robot non autonome vient à entraîner un dommage ? [revue] / M. Stevenin, Auteur ; Valérie Avisse, Auteur ; N. Ducarme, Auteur ; Alain de Broca, Auteur . - 2020 . - p.89-94. Langues : Français in Ethique et santé > vol.17 n°2 (juin 2020) . - p.89-94 Mots-clés : | IA intelligence artificielle responsabilité robot santé
| Résumé : | La robotique et l’intelligence artificielle imprègnent déjà de nombreux domaines et secteurs au premier rang desquels la finance, la santé, la recherche, et même les métiers du droit. Les progrès régulièrement effectués apportent un rôle majeur des algorithmes, dont les automates profitent afin de disposer de toujours plus d’autonomie décisionnelle, et ce, grâce à une capacité d’apprentissage accrue. Cette nouvelle arborescence doit-elle conduire à adapter notre système de responsabilité et d’indemnisation d’une part ? Une réponse positive semble s’imposer et un processus de normalisation a déjà été enclenché à ce titre au niveau de l’Union européenne en 2017. D’autre part, ne paraît-il pas opportun d’adapter la réglementation aux spécificités des dispositifs médicaux et de sensibilité du milieu de la santé ? Ces nouvelles problématiques seront in concreto bientôt généralisées dans l’ensemble du domaine médical, auxquelles il convient d’apporter des éléments de réponse juridiques. Deux situations semblent bien différentes du point juridique et donc éthique. La première situation est celle des robots qui ne sont que des systèmes algorithmiques sophistiqués qui ne peuvent répondre qu’à des questions dont la solution a été envisagée par le logiciel et donc par le programmeur. La seconde est celle des robots qui sont dans une capacité d’apprentissage et de créer en interne une manière de résoudre des problèmes au-delà de ce qui avait été programmé. Cet article ne concerne que de la première situation. |
[article] in Ethique et santé > vol.17 n°2 (juin 2020) . - p.89-94 Titre : | Qui est responsable si un robot non autonome vient à entraîner un dommage ? | Type de document : | revue | Auteurs : | M. Stevenin, Auteur ; Valérie Avisse, Auteur ; N. Ducarme, Auteur ; Alain de Broca, Auteur | Année de publication : | 2020 | Article en page(s) : | p.89-94 | Langues : | Français | Mots-clés : | IA intelligence artificielle responsabilité robot santé
| Résumé : | La robotique et l’intelligence artificielle imprègnent déjà de nombreux domaines et secteurs au premier rang desquels la finance, la santé, la recherche, et même les métiers du droit. Les progrès régulièrement effectués apportent un rôle majeur des algorithmes, dont les automates profitent afin de disposer de toujours plus d’autonomie décisionnelle, et ce, grâce à une capacité d’apprentissage accrue. Cette nouvelle arborescence doit-elle conduire à adapter notre système de responsabilité et d’indemnisation d’une part ? Une réponse positive semble s’imposer et un processus de normalisation a déjà été enclenché à ce titre au niveau de l’Union européenne en 2017. D’autre part, ne paraît-il pas opportun d’adapter la réglementation aux spécificités des dispositifs médicaux et de sensibilité du milieu de la santé ? Ces nouvelles problématiques seront in concreto bientôt généralisées dans l’ensemble du domaine médical, auxquelles il convient d’apporter des éléments de réponse juridiques. Deux situations semblent bien différentes du point juridique et donc éthique. La première situation est celle des robots qui ne sont que des systèmes algorithmiques sophistiqués qui ne peuvent répondre qu’à des questions dont la solution a été envisagée par le logiciel et donc par le programmeur. La seconde est celle des robots qui sont dans une capacité d’apprentissage et de créer en interne une manière de résoudre des problèmes au-delà de ce qui avait été programmé. Cet article ne concerne que de la première situation. |
|