banner
Centro de Noticias
Nuestros productos son apreciados tanto en los mercados locales como en el extranjero.

El tribunal dice no al uso de ChatGPT en la demanda por la marca Louboutin

Jun 20, 2023

Louboutin ha prevalecido en la última ronda de una batalla de marcas en India, con el tribunal emitiendo una orden judicial que prohíbe a una empresa de calzado no afiliada ofrecer zapatos de imitación con suela roja. Al mismo tiempo, el tribunal arrojó luz sobre cómo podemos esperar que se traten en el futuro las pruebas generadas por inteligencia artificial (“IA”). En una decisión del 22 de agosto, el juez Prathiba M. Singh del Tribunal Superior de Delhi ordenó preliminarmente a M/S The Shoe Boutique que se abstuviera de vender zapatos que reflejaran los “patrones de púas” de Louboutin y su suela roja, señalando que el tribunal no “reconoce un monopolio a favor de [Louboutin] para todos los zapatos con puntas o suelas de colores”, y como tal, para estar sujetos a una orden judicial, los productos deben ser “colorables o una imitación servil” de los diseños de Louboutin y sus famosos marca única roja para que se justifique una orden judicial.

Mirando más allá de los elementos de marca registrada inmediatos de la demanda, el tribunal ofreció algunas ideas sobre el uso de la plataforma de inteligencia artificial generativa ChatGPT, en la que se basó Louboutin en relación con sus argumentos de distinción adquirida. El abogado de la marca de calzado francesa argumentó que, además de la evidencia secundaria centrada en el significado que presentó, incluida la amplia publicidad de la marca y el uso prolongado y continuo de sus suelas rojas (y la atención de los medios de comunicación de terceros a ellas), "la reputación que [Louboutin] ha obtenido también se puede evaluar sobre la base de una consulta ChatGPT que se realizó en nombre de [Louboutin]”.

Específicamente, el abogado de Louboutin presentó una respuesta de ChatGPT (a la pregunta de si Louboutin es conocido por sus zapatos de hombre con puntas), en la que el chatbot impulsado por Large Language Model (“LLM”) declaró: “Louboutin es conocido por sus icónicos zapatos de suela roja”. "Zapatos, incluidos estilos con pinchos para hombres y mujeres". Y el equipo de la marca de calzado intentó utilizar esto como una prueba más del carácter distintivo adquirido por la marca, pero fue desestimado por el tribunal.

Si bien el tribunal determinó que Louboutin presentó pruebas suficientes para justificar una orden judicial preliminar, también sostuvo que ChatGPT "no puede ser la base para la resolución de cuestiones legales o fácticas en un tribunal de justicia", ya que las respuestas proporcionadas por dicho LLM "dependen de una serie de factores que incluyen la naturaleza y estructura de la consulta realizada por el usuario, los datos de capacitación, etc., [y] existen posibilidades de respuestas incorrectas, jurisprudencia ficticia, datos imaginativos, etc., generados por chatbots de IA”.

Dado que la precisión y confiabilidad de los datos generados por la IA todavía se encuentran en una “zona gris”, el tribunal afirmó que “la IA no puede sustituir ni la inteligencia humana ni el elemento humano en el proceso de adjudicación, [y] en el mejor de los casos, la herramienta podría ser utilizado para una comprensión preliminar o para una investigación preliminar y nada más”.

La decisión del juez Singh se deriva de órdenes de jueces en los EE. UU., varios de los cuales han requerido que los abogados que comparecen ante el tribunal deben dar fe de que ninguna parte de sus presentaciones fueron redactadas por IA generativa, o si lo fueran, que la información en esas presentaciones fue controlado “por un ser humano”. El juez Brantley Starr del Tribunal de Distrito de EE. UU. para el Distrito Norte de Texas, por ejemplo, abordó la posibilidad de que las plataformas de inteligencia artificial generativa provoquen alucinaciones y, por lo tanto, proporcionen información inexacta y, en el proceso, se convirtió en el primer juez federal en prohibir explícitamente la uso de IA generativa (como ChatGPT, Harvey.AI o Google Bard) para presentaciones, a menos que el contenido de esas presentaciones haya sido verificado por un humano.

Según el mandato del juez Starr de mayo de 2023, “estas plataformas en sus estados actuales son propensas a sufrir alucinaciones y prejuicios. Sobre las alucinaciones, inventan cosas, incluso citas y citas”.

El juez magistrado Gabriel Fuentes del Tribunal de Distrito de EE. UU. para el Distrito Norte de Illinois fue otro de los primeros en este frente, al emitir una orden permanente revisada el 5 de junio que exige que “cualquier parte que utilice cualquier herramienta de inteligencia artificial generativa en la preparación de la redacción de documentos para su presentación”. ante el Tribunal debe revelar en la presentación que se utilizó IA” y la divulgación identifica la herramienta de IA específica y la manera en que se utilizó. La orden del juez también exige que las partes no solo revelen si usaron IA generativa para redactar presentaciones sino, más fundamentalmente, si usaron IA generativa para realizar la investigación legal correspondiente.

El caso es Christian Louboutin SAS contra M/S The Shoe Boutique, CS(COMM) 583/2023 e IA 15884/2023-15889/2023.