Ce papier étudie comment la combinaison de la responsabilité produit et du droit des accidents influence les incitations d’un monopoleur à investir en R&D afin de développer des technologies risquées, basées sur l’IA (des « robots » ici), qui peuvent entrainer des dommages accidentels à des parties tierces. Nous supposons que leur conception dote les robots de deux modes de fonctionnement alternatifs que peut choisir l’utilisateur (mode « purement autonome » versus mode « contrôlé par l’humain »), dont les performances optimisées sont conditionnelles à certaines circonstances prédéfinies et connues. Une utilisation du robot en « mode autonome » place le concepteur/monopole face à la responsabilité produit, ce qui le conduit à réaliser des investissement de maintenance post-R&D afin d’atténuer l’impact des accidents sur les victimes. En mode « humain-contrôlé », l’utilisateur fait face au droit des accidents, et réalise des efforts de précaution. Dans ce cadre, nous montrons que quelque soit la règle de responsabilité (responsabilité stricte vs négligence) utilisée dans les deux domaines du droit, les activités de maintenance du concepteur du robot comme les efforts de précaution de l’utilisateur du robot atteignent à l’équilibre leur niveau de premier rang. En revanche, le monopoleur peut sur-investir ou sous-investir en R&D indépendamment de la combinaison de la règle de responsabilité appliquée dans les deux domaines du droit, ou qu’il pratique ou pas une politique de discrimination tarifaire. Nous montrons que le niveau de premier rang des investissements en R&D n’est atteint à l’équilibre que si (simultanément) le monopole discrimine parfaitement la demande, le régulateur sectoriel impose au monopoleur les quantités socialement optimales, et les tribunaux applique la règle de responsabilité stricte en responsabilité produit comme en droit des accidents.