Louboutin devant les tribunaux: ChatGPT n’a pas d’autorité pour prouver la notoriété d’une marque


L'utilisation de l'intelligence artificielle pour prouver la réputation d'une marque et soutenir un argument de distinctivité acquise par l'usage a été jugée non recevable par la Cour de Delhi, dans une affaire récente où une entreprise de chaussures a tenté d'imiter les modèles cloutées a semelles rouges emblématiques de la marque Christian Louboutin.


Dans une tentative de prouver la distinctivité acquise de ses chaussures cloutées, les avocats de Louboutin ont soumis une capture d’écran d’une réponse de ChatGPT, dans laquelle le chatbot affirmait que "Louboutin est connu pour ses chaussures à semelles rouges emblématiques, y compris les modèles cloutés pour hommes et femmes."





Selon la Court de Delhi, l’exactitude et la fiabilité des données générées par l'IA étant encore dans une "zone grise", "l'IA ne peut pas remplacer l'intelligence humaine ni l'élément humain dans le processus décisionnel, [et] au mieux, l'outil pourrait être utilisé pour une compréhension préliminaire ou pour des recherches préliminaires, et rien de plus."


La Cour rappelle que ChatGPT est un outil puissant de traitement automatique du langage naturel, mais il ne peut pas être utilisé comme une source incontestable de preuves juridiques ou d’autorité en matière de droit des marques. Les juges rappellent que ses réponses peuvent être sujettes à des erreurs ou des biais.


On se souvient à ce titre de l’affaire qui avait suscité l’indignation des juges américains, lorsque lors d'une audience, un avocat avait présenté plusieurs arrêts fictifs générés par ChatGPT pour étayer son argumentation, devenant ainsi la risée de la profession ("The ChatGPT Lawyer Explains Himself", The New York Times, 8 Juin 2023). 


Preuve non recevable, réponses incorrectes, jurisprudences fictives, données imaginatives… Une chose est sûre, il faudra investir davantage dans l'entrainement du chatbot pour qu'il puisse un jour prétendre remplacer les avocats. 



ASR

Commentaires

Vos articles préférés