Artikel von Cade Metz, Cecilia Kang, Sheera Frenkel, Stuart A. Thompson und Nico Grant in der New York Times, vom 6. April 2024

Datengier der Tech-Giganten: Wie KI-Modelle auf Kosten der Ethik trainiert werden

Große Technologieunternehmen wie OpenAI, Google und Meta umgehen rechtliche und ethische Grenzen, um riesige Datenmengen für das Training ihrer KI-Systeme zu sammeln. Den Link findet ihr hier.

Snippet des Artikels aus der New York Times

Der Artikel aus der New York Times untersucht die Methoden, mit denen große Technologieunternehmen, insbesondere OpenAI, Google und Meta, ethische und rechtliche Grenzen überschritten haben, um riesige Mengen an Daten zu sammeln, die benötigt werden, um ihre künstlichen Intelligenzsysteme zu trainieren. Da die AI-Technologie fortgeschritten ist, wurde der Bedarf an großen, vielfältigen Datensätzen entscheidend, was die Unternehmen dazu veranlasste, umstrittene Praktiken anzunehmen. Dazu gehören das Ignorieren von Unternehmensrichtlinien, das Beugen von Urheberrechtsgesetzen und das Ausnutzen von Schlupflöchern in Nutzervereinbarungen.

OpenAI entwickelte ein Werkzeug zur Transkription von YouTube-Videos, um konversationellen Text zu sammeln, der zum Trainieren seiner AI-Modelle dient, trotz möglicher Konflikte mit den Regeln von YouTube. Google verwendete ähnlich Transkriptionen von YouTube-Videos für seine KI, ohne klare Autorisierung. Meta diskutierte den Erwerb großer Verlage wie Simon & Schuster, um langwierige Lizenzverhandlungen für den Datenzugriff zu umgehen.

Diese Praktiken unterstreichen eine wachsende Spannung zwischen dem unerbittlichen Streben nach Daten zur Förderung von KI-Fortschritten und den ethischen Implikationen solcher Datenerwerbsmethoden.a