Le plan d’action de l’IA du président Trump, récemment non assemblé, essaie conceptuellement de lutter contre la tension entre les droits des titulaires de droits d’auteur pour contrôler leurs œuvres et la nécessité pour les sociétés de l’IA d’utiliser des œuvres protégées par le droit d’auteur pour former leurs systèmes. D’autres solutions, certains propriétaires pro-Copyright et certains ne sont pas apparus pour essayer de résoudre le problème.
Les tribunaux fédéraux trouvent une utilisation équitable
Deux tribunaux fédéraux ont décidé que l’utilisation de livres protégés par le droit d’auteur pour former l’IA est une utilisation équitable.
Images getty
La question de savoir si les entreprises d’IA devraient garantir l’autorisation des titulaires de droits d’auteur pour utiliser leurs œuvres protégées par le droit d’auteur pour éduquer les modèles d’IA génératifs restent un problème nuageux et discutable. Dans deux décisions récentes de la Cour fédérale sur la question, les juges fédéraux dans le district nord de la Californie, l’utilisation de livres protégés par le droit d’auteur pour former les systèmes d’IA – Claude System et Metas Llama System – étaient donc une utilisation équitable et ne nécessitaient donc pas l’autorisation des auteurs du livre. Cependant, ces décisions ne contrôlent pas en dehors de leurs juridictions, et plus important encore, elle est ou exposée à l’appel. Par conséquent, ils pourraient être tournés – même à mon avis, ils ne le seront pas. Ainsi, ils ne donnent pas de réponse définitive.
En outre, ces décisions, telles que toutes les décisions des tribunaux, sont limitées à leurs faits. D’autres modèles d’IA qui utilisent des travaux protégés sur le droit d’auteur différemment de Claude ou Llama peuvent nécessiter des résultats juridiques différents. Note, Universal Studios et Disney sont actuellement agréables au milieu de la journée Pour utiliser leurs œuvres protégées par le droit d’auteur, des revendications de faits qui semblent beaucoup plus difficiles que celles impliquées dans les combinaisons anthropiques et méta-méta.
Solution proposée par le président Trump
Voir le plan d’action AI sur AI.gov.
AFP via Getty Images
L’administration Trump favorise la position d’utilisation équitable. Le président Trump vient d’en publier un Plan d’action de l’IA Il donne la priorité à la construction des capacités d’IA du pays et à l’élimination des obstacles réglementaires et d’autres obstacles à cet objectif. S’exprimant lors d’un récent sommet de l’IA, Dit président: “On ne peut pas s’attendre à ce que vous ayez un programme d’IA réussi lorsque chaque article, livre ou tout ce que vous avez étudié pour lequel vous devez payer. Nous l’apprécions, mais vous ne pouvez pas le faire parce que cela ne peut pas être fait. Et si vous voulez essayer de le faire, vous n’aurez pas de programme réussi.” En répétant l’analyse du juge Alsup dans sa décision sur une utilisation équitable qui a analogisé pour lire un livre pour augmenter ses connaissances pour utiliser un livre pour éduquer un système d’IA, le président a déclaré: “Lorsqu’une personne lit un livre ou un article, vous avez acquis de grandes connaissances. “Vous ne pouvez pas le faire. La Chine ne le fait pas.” Comment exactement l’administration mettra en œuvre une telle règle si elle le fera et quelle autorité le plan d’action de l’IA aurait laissé à voir.
Solutions législatives
Les législateurs ont introduit une législation pour aborder la question.
AFP via Getty Images
Entre-temps, le 21 juillet, le sénateur Josh Hawley (R-MO) et le sénateur Richard Blumenthal (D-CT) ont présenté un projet de loi qui obligerait les sociétés en IA à garantir la permission des titulaires de droits d’auteur avant d’utiliser leurs travaux pour former des systèmes d’IA. Le Loi sur la responsabilité et la protection des données personnelles de l’IA créerait une opération de rémunération privée contre toute entreprise utilisant du matériel protégé par le droit d’auteur pour former un système d’IA sans l’autorisation du propriétaire du droit d’auteur. Le projet de loi contient également des dispositions selon lesquelles tout accord à l’inverse, à l’exception d’une convention de négociation collective, serait invalide.
Solutions basées sur le marché
Le New York Times est l’une des sociétés qui ont conclu un accord avec le modèle d’IA d’Amazon.
Images getty
Certaines sociétés d’IA ont battu des accords pour compenser les titulaires de droits d’auteur – ou au moins les entreprises qui contrôlent les œuvres protégées par le droit d’auteur – pour utiliser leurs travaux pour former des systèmes d’IA. Les exemples incluent un accord conclu entre Amazon et New York Timeset entre Open AI et News Corp. et Associated Press.
Option de solutions
Mauvais incendie 2 Distribution de la distribution.
Capture d’écran avec la permission d’un invité de film.
D’autres modèles d’IA ont introduit “Se désengager” Fonctionnalités dans leurs offres finales ou paramètres utilisateur afin que les utilisateurs puissent se désabuser de laisser le modèle utiliser leurs propres créations pour se former eux-mêmes. En fait, les lois dans les pays en dehors des États-Unis, comme dans l’UE, ont des lois qui permettent expressément aux tribunaux de réserver leurs droits dans leur travail à partir de l’exploration de données d’une formation en données d’IA dédaigneuse. Article 4 (2). 3, je 2019 – Directive sur le droit d’auteur et les droits connexes sur le marché unique numérique Déclare: “L’exception ou la restriction fournie (objectif de l’exploration de texte et de données) s’applique, à condition que l’utilisation des œuvres et d’autres sujets mentionnés dans cette section ne soit pas explicitement réservée par leurs jardins juridiques de manière appropriée, comme des moyens lisibles par machine en cas de contenu rendu public en ligne.” Compte tenu de cela, j’ai remarqué avec intérêt que DreamWorks a utilisé la clause de non-responsabilité suivante dans le générique de son film récent Les maléfiques 2 2: “Tous les droits dans ce travail sont réservés aux lois dans toutes les juridictions relatives à l’exploration de données ou à l’éducation de l’IA, y compris, mais sans s’y limiter, l’article 4, paragraphe 2, si cet opt-out sera ou sera légalement efficace en vertu de la loi américaine, pour voir.
Les guerres du droit d’auteur / AI se poursuivent. Surveiller.