Das wichtigste Gesetz aller Zeiten?
Вставка
- Опубліковано 13 чер 2024
- Im Februar haben 27 EU-Botschafter dem wohl wichtigsten Gesetz der nächsten Jahre, vielleicht sogar des gesamten Bestehens der EU zugestimmt: dem AI-Act. Im April soll die Zustimmung des Europaparlaments erfolgen. Auf 900 Seiten sind Regeln für den Umgang mit KI festgelegt und damit ihr die nicht lesen müsst, haben wir für euch das wichtigste zusammengefasst und vor allem geschaut, was hinter dem Gesetzt steht.
Es gab schon im Vorfeld sehr viele Kritikpunkte und fast wäre der ganze Entwurf nochmal verworfen worden. Doch dann haben sich viele Menschen aus der Wissenschaft, der KI-Wirtschaft und auch Kunst und Kultur zusammengeschlossen und FÜR das Unterzeichnen des AI-Acts protestiert. Wieso das so eine unglaublich wichtige Sache ist, welche Punkte am stärksten kritisiert werden und was genau der AI-Act überhaupt regelt, das sehen wir uns heute an und damit willkommen bei Breaking Lab, Jacob hier, los geht’s!
Breaking Lab bei Instagram: breakinglab...
Dieses Video ist in meinem Breaking Lab-Team entstanden. Verantwortlich aus der Redaktion: Tabea Desch, Jacob Beautemps; Editing: Aron Kamenz & Neo Sanjuan Thiele
00:00 Intro
00:52 Was bisher geschah
01:57 Definition KI
03:05 Risikostufen
06:24 General Purpose AI
10:43 Kritikpunkte am AI-Act
12:21 Fazit
Quelle 1: www.zeit.de/digital/2024-01/k...
Quelle 2: www.faz.net/aktuell/wissen/co...
Quelle 3: www.t-online.de/digital/aktue...
Quelle 4: artificialintelligenceact.eu/...
Quelle 5: www.costanachrichten.com/serv...
Quelle 6: netzpolitik.org/2023/kuenstli...
Quelle 7: netzpolitik.org/2024/grundrec...
Quelle 8: www.heise.de/news/AI-Act-gele...
Quelle 9: algorithmwatch.org/de/ai-act-...
Quelle 10: digital-strategy.ec.europa.eu...
Quelle 11: artificialintelligenceact.eu/...
Quelle 12:kpmg-law.de/der-ai-act-kommt-....
Quelle 13: rechtsbelehrung.com/116-ai-act/
Ich bin Jacob Beautemps und mache gerade meinen Doktor an der Universität zu Köln. Vor vier Jahren habe ich zusammen mit Philip Häusser diesen UA-cam Kanal gegründet und seit 2018 stehe ich nun selbst vor der Kamera. In meiner Forschung an der Uni geht es um das Thema "What comprises a successful educational UA-cam video?: the optimization of UA-cam videos’ educational value through the analysis of viewer behavior and development via machine learning." Oder kurzgesagt: Wie lernt man auf UA-cam und wie können wir das mit künstlicher Intelligenz optimieren. Dies fließt natürlich stark in meine UA-cam Videos mit ein, denn hier geht es auch darum möglichst viel über Physik, Chemie, Technik und andere naturwissenschaftliche Themen zu lernen.
Hat dir das Video gefallen? Klick auf "Daumen hoch" und lass ein Abo da! Dein Feedback motiviert mich zu neuen Videos. Dankeschön :-) - Наука та технологія
Plot twist die minister lassen sich die 900 Seiten von Chatgpt zusammenfassen
Bloß kann GPT nicht so lange Texte verarbeiten, bin mir gerade nicht sicher wie groß das Zeichenlimit ist, aber da müssten die das schon ordentlich staffeln😂
@@pietsmietz Also ich konnte mir bisher maximal 2 Seiten Text zusammenfassen lassen, wenn nicht sogar etwas weniger. Da würde man also ziemlich lange dran sitzen haha
@@GAGA00730 Ich meine ChatGPT 3.5 hat 8k tokens und 4 32k tokens Kontext.
Normal in Kosovo
ChatGPT-Turbo sollte genug context window haben. Wenn nicht, Claude3 verwenden, ist eh besser inzwischen.
Darf die Werbeindustrie dann noch KI nutzen? Manipulation ist hier das Geschäftsmodell.
Gute Frage. Trift den Punkt.
KI ist die Synthese von Kapitalismus und Kommunismus. Als Unfall
In einer stabilen Welt wäre das vielleicht handhabbar.
Dürfen AI Influencer noch existieren? Dürfen überhaupt AIs im Internet existieren, da sie manipulieren (können).
Rechtlich dürfen schon heute Firmen in der Werbung keine wahrheitswidrigen Aussagen machen. Inwiefern es Manipulation im Sinne der Verordnung ist, wird sicher noch Juristen beschäftigen. Die Verordnung lässt ja viel Raum für Interpretation.
@@Knusper-Knoppers Womit die Kaste der Juristen ihr Geschäft gesichert hat. Niemand kann hier irgendwas Neues anfangen ohne das Risiko einer Abmahnung zum Opfer zu fallen, weil die Gesetze immer mehr Gummiparagraphen enthalten.
Das mit der Diskriminierung in den Originaldaten sehe ich als problematisch an... Wer entscheidet, ob eine Einstufung diskriminierend ist oder doch repräsentativ für die reale Welt ist? Soll das Modell nun rational anhand der gegebenen Aufgabe modellieren oder einer bestimmten Weltanschauung folgen? Welche Ethik/Moralvorstellungen werden angewandt, und aus welchem Land bzw zu welcher Zeit?
Gesetze, Regierungen, Demografien und besonders Meinungen ändern sich rapide. Das kontinuierlich anzupassen ist technologischer Schwachsinn, besonders auch im Kontext des Stromverbrauchs zB beim neu-Training.
Nicht die KIs beherrschen die Zukunft, sondern die Personengruppen, die die KIs beherrschen. Das Gegenteil von gut ist nicht böse, sondern gut gemeint, würde ich da sagen.
Gut erkannt!
noch. und ausversehen haben wir dann doch ki-overlords heuheu
Ich glaube da war der Hauptgedankengang, dass nicht wie einst in der USA (meine ich) passiert, wo ein Assistensalgorithmus, bei der Bewertung von Haftstrafen allgemein längere Strafen für Schwarze vergeben hatte.
das sehe ich weniger problematisch als du, ich denke die anonymisierung von daten kann man relativ wert- und ideologiefrei definieren.
Wichtiger Punkt. Wenn zb Frauen in einem bestimmten Sachgebiet deutlich besser sind als Männer, dann müssen Daten oder Output gefälscht werden. Das kann es nicht sein.
Auch Gesetzgebung funktioniert nach der Regel von Versuch und Irrtum. Bei einem völlig neuen Rechtsgebiet muss sich erst zeigen, welche Regeln im Sinne von Rechtsstaatlichkeit funktionieren und welche nachgebessert werden müssen. Das die EU hier vorangeht, verdient m. E. erst einmal Anerkennung.
joa 😅 für manche ist das Glas eben halb voll, für manch andere halb leer…
also bei dem Thema ist mein Glas leider kaputt 💀 keiner wirds richtig machen außer vielleicht China lul 🤦♂️ das Thema Alignment wird viel zu sehr vernachlässigt (Elon Musk's leere Warnungen und Drama Szenarien sind im Endeffekt auch nur ein verzweifelter Versuch die Konkurrenz, die im Moment Meilenweit vor ist, auszubremsen… also zählt das schon mal nicht)
worst case; Cyberpunk 2077 ähnliche Dystopie. KI im Würgegriff der Konzerne…
Wieso wird China was richtig machen? Nichts für ungut, aber China hat noch nie irgendwas richtig gemacht. Deren Fortschritt und niedrige Preise sind auf Ausnutzung und Sklaverei ähnliche Zustände, sogenannte Lohnsklaven zurück zu führen. Zudem bringt KI mehr Nachteile als Vorteile, die will mur immer keiner sehen.
Der Fehler hierbei ist man Versuch in die Zukunft zu regulieren.
Ja, absolut. Aber mehr auch nicht.
@@FirstYokaiDas ist kein Fehler - das ist die Aufgabe.
Vlt sollte beim KI training mehr auf Qualität und Empirie Wert gelegt werden, als auf "Diversität".
Ich finde im Gestz sollte vorheschrieben sein, daß die KI in der Lage sein sollte mindestens die Hälfte der EU und Regierungsbehörden wegzurationalisieren.
In den Prozess hinein- und am Ergebnis herumzupfuschen ist eine ganz üble Idee. Und: Nein, es ist nicht wünschenswert, dass eine KI keinen Bias sieht, wenn in den Trainingsdaten einer ist! Identifizieren und darauf hinzuweisen würde genügen. Und im Sinne von ›wenn ein Gesetz nicht nötig ist, ist es nötig, das Gesetz nicht zu machen‹ hätte man sich darauf beschränken sollen.
Wir entfernen uns immer mehr - und absichtlich und sehenden Auges! - von faktenbasierter Forschung zu wunschbasierter, man könnte auch sagen: ideologisch angetriebener.
Und das ist schon mehrmals auf dramatischste und bitterste Weise in die Hosen gegangen.
Ein witziges Anschauungsbeispiel, wohin eine derartige woke Korrektur führen kann, hat uns ja bereits Googles Gemini mit seinen Bildern von "diversen" Wehrmachtssoldaten geliefert. Aber während das noch für Lacher gesorgt hat, können solche Manipulationen von AI in anderen Bereichen für gravierende Konsequenzen sorgen (falls man z.B. die Ergebnisse einer AI im Bereich der Kriminalitätsbekämpfung absichtlich verändern will, um sie "weniger rassistisch" erscheinen zu lassen). In dem Fall kann man es auch gleich bleiben lassen, wenn ohnehin nur die gewünschten Ergebnisse akzeptiert werden
Ja das stimmt die KI wird dann mit Lügen gefüttert und kann dann selbst nicht die Realität berechnen, es ist als würde man ihr sagen Wespen sind wunderbare Insekten, sie stechen auch nicht einfach so, sondern nur weil sie gesellschaftlich unterdrückt werden...
Abgesehen davon, dass es hier nicht nur um Forschung geht, kann man eben gerade nicht oder nur eingeschränkt von "faktenbasiert" sprechen, wenn die Trainingsdaten nicht repräsentativ sind.
@@first7589 Wir wurden schon zensiert, wenn ich das Kommentar von @matthiaswolf4472 über die Top Kommentar Ansicht aufrufe ist nur das von @vyger5462 zu sehen. Wir sind nur noch sichtbar, wenn neue Kommentare zuerst komplett runter gescrollt wird. Kritische Aussagen sind nicht mehr erwünscht.
@@vyger5462 Ok, das ist jetzt Wortklauberei - aber bei einem Sprachmodell muss ein wenig wortklauben gestattet sein): Doch! Es ist Fakt, dass die Trainingsdaten sind, wie sie sind. Und ich will rauskriegen, wie sie sind und nicht, wie ich (oder wer eigentlich?) mir wünsche, dass sie wären.
Gibt's die Videos eigentlich auch als Podcast?
Kommt gerade noch rechtzeitig für meine Seminararbeit, danke :)
Kannst du nochmal den Podcast von dem du gesprochen hast verlinken :)
Ich glaube wie immer werden sich viele Player nicht dran halten, gehen das Risiko ein irgendwann bestraft zu werden aber die Strafe zahlen sie gerne, weil sie weit unter dem Nutzen liegt alle Daten zu sammeln die man täglich liefert. Ähnlich wie bei WhatsApp und co die Verknüpfung war eig nicht okay aber who cares solange es Geld bringt.
Die erste hälfte (9/10), die zweite hälfte des Gesetzes (-1/10)
😭💀
Sehr interessant
es wurde zeit, dass es mal irgendwelche regularien gibt. wenn man wartet weiß man kaum auf welcher basis man nachbessern kann, aber mit einem fehlerhaften system hat man zumindest schon mal eine grundlage die man analysieren kann.
Meeega danke für den input !
Eure Brockhaus Bände sind in der falschen Reihenfolge ^^
Und das Bild hängt schief.
Welchen kannst du empfehlen? Ich finde ja den 3. am besten aber Teil 7 ist auch nicht schlecht .. aber dazwischen ging es leider bergab … besonders Teil 6 war ein richtiger downer
Wikipedia ist ja als wissenschaftliche Quelle tabu... Bücher zu Physik, Mathematik, Elektrotechnik, Maschinenbau und KI wären treffend.
@@LB-qr7nv Du kennst offenbar Loriot nicht.
@@O_Lee69 ach, schon ewig nicht mehr geschaut ^^
Ich würde fast behaupten, dass es nicht möglich ist, Misbrauch auszuschließen.
Schon alleine Agenten Systeme, also eine Art Self promoting hebelt das ganze ja komplett aus.
Danke, dass du das alles für uns zusammengefasst hast
Ich verfolge die Debatte um die KI-Verordnung beruflich (ohne KI-Experte zu sein) und finde sehr spannend, wie stark die Meinungen der Experten auseinander gehen. Entweder man findet es einen guten ersten Schritt oder komplett Murx.
Ich fande die Aussage interessant dass manche Leute aus der Wissenschaft etc. noch nicht so ganz zufrieden mit dem Entwurf waren aber das Risiko gegenüber keiner Regulierung befürwortet haben und zudem das es eine Nachregulierung geben kann. Insofern will ich noch nicht alles schwarz malen was deinen Titel betrifft aber an dieser Stelle ein Daumen hoch für gute Recherchearbeit :-)
super Video! :)
Man sagt doch "nichts hält länger als ein Provisorium".
Super interessantes Video. Vielen Dank für die kompetenten Informationen.
Interessant und wichtig, danke für das Video!
AI-Act ist ja ersteinmal ganz gut, man muss ihn später aber nocheinmal überarbeiten. Letztenendes liegt es am EU Land selbst, ob es das ganze weiter verschäft. Zumindest hat man eine gewisse Grundlage, auf die man sich stützen kann und es wäre nicht, das erste mal, dass sich weltweit Länder an europäischen Normen orientieren müssen. Besser als momentan keine Lösung zu haben, grad wo AI immer mehr überall Anwendung findet.
Huawei und Yahoo können potenziell gefähliche KI's entwickeln. Im Auge behalten!
Dass mit mit den Biometrischen daten währe ja wirklich mega übel
KI für Kriegsführung nutzen? Was soll dabei denn Schief gehen?
Militär lässt sich nicht regulieren. Siehe Terminator / Skynet
Israel nutzt KI für die Auswahl von Zielen im Gaza Streifen. Wen die KI als ziel benennt, der ist meist noch am gleichen tag tot. Und das ist KEINE Fiktion.
Ja wie ist das, wenn ich ein Buch mit Hilfe der ki erstelle, aber selbst noch Inhalte ergänze oder umformuliere?
2 Jahre bis zur Umsetzung des Gesetzes gleichen in der aktuellen KI-Evolution eher 2 Jahrzehnten, wenn nicht 2 Jahrhunderten… Gut möglich, dass bis 2026 KI so nützlich geworden ist, dass die Regulierung ganz anders ausfallen wird.
Die Europäische Bürokratie ist arrogant genug, um das zu ignorieren
@@thomashacker3178Du behauptest, dass sie ignorieren...
WIE willst DU im Voraus Regeln für AGI aufstellen?
@@gehwissen3975 Nein, arrogant genug um zu ignorieren dass die aufgestellten Regeln für den heutigen Ist stand in 2 jahren keine relevanz mehr haben wenn sie eintreten sollen.
@@thomashacker3178 ich dachte nur, ich wäre hier wieder dieser populistischen Dummheit begegnet, "alle Regierenden sind doof"
Und es kann nicht sein, dass du das Problem unterschätzt? Nicht in technischer noch in politischer Hinsicht...?
Danke 🙏
Sehr cooles Video & gute Recherche. Lass dich aber beim nächsten mal nochmal einen Juristen/Europarechtler drüber schauen (sind zwar keine inhaltlichen Fehler aber einige stilistische Sachen - DeliktSrecht, Brüssel-Effekt ist eigentlich gar kein Effekt sondern ein - eher abschätzig - genutzter Begriff zur Beschreibung des genannten Phönomens, dass die EU versucht „die Welt zu verbessern“)
Sobald skynet übernimmt will ich ne Summer glau als Terminator haben.
Ein guter Beitrag zu einem spannenden und wichtigen Thema. Danke dafür!
Wenn jetzt eins der derzeitigen open source LLMs (z.B. mistral, viguna, claude) sich als illegal herausstellt, weil den neuen Regulierungen nicht entspricht, ich das Modell aber auf meinem Rechner lokal installiert habe, wer oder was hält mich dann davon ab, es weiter zu nutzen?. Selbiges gilt auch für Bildgeneratoren wie Stable Diffusion
Ich denke, das gerade solche Dinge reguliert werden sollen, die offiziell sind. Nicht irgendwer, der auf seiner Festplatte irgendwas herumliegen hat. Das geht ja schon gar nicht.
Ich arbeite seit 5 Jahren an einem P2P Digital Service Netzwerk - inclusive AI Services.
damit können Anfragen geografisch nah verarbeitet werden.
Das heisst die Peers sind ganz normale Haushalte die gerade Überschuss an PV haben, und die Hardware haben, solche Dienste zur verfüfung zu stellen.
Zugegeben ist die Zielgruppe relativ klein:
Im Grunde Gamer mit PV, die gerade nicht zu Hause sind, verkaufen ihre GPU Leistung.
Dieses Jahr war die Vorstellung eines Prototyps und Finanzierungsphase geplant.
Ich fürchte der AI Act ist der Todesstoss für das Projekt.
Ne ne. Gilt erst ab 2026. Und bis dahin noch x-mal geändert. Und sowieso lokal unterschiedlich auslegbar. Folge einfach weiter deiner guten Idee weiter.
Nein ist es nicht. Das Gesetz ist ein ziemlich zahnloser Tiger. Die DSGVO ist schlimmer.
Gutes Video. Lieber jetzt einen noch nicht perfekten AI-Act als garkeinen. Genauso wie du das auch so siehst.
Bin ja gespannt welcher Maßstab bestimmt, was gute oder schlechte unterschwellige Beeinflussung ist...
Die Frage ist doch, wer das überwacht und welcher Aufwand dafür betrieben wird. Ich glaube nicht nicht, dass das die EU wirklich vollständig überwachen kann. Vor Allem, da bei der zukünftigen Entwicklung permanent nachgeregelt werden muss. Eine vollständige Überwachung wäre nur wieder über eine KI möglich. Demnach fast nicht möglich, wenn man die zukünftige Entwicklung halbwegs einschätzen kann.
Bitte noch mehr auf die Kritik eingehen. Die sind mir fast am wichtigsten. Was eine Firma machen muss, ist ganz interessant. Der sozial Aspekt ist nicht zu verachten. Was bedeutet KI für uns? Wir sind als Zivilisation schon so nicht ganz "Verantwortungsbewußt" mit dem Internet unterwegs. Was stellen wir wohl mit KI an.
Wie siehts denn jetzt mit dem Urheberrecht aus?
Kleiner Zusatz, Mistral gehört mittlerweile ebenfalls Microsoft neben "open"ai.
Tatsächlich hat Microsoft lediglich eine Minderheitsbeteiligung bei beiden Firmen
@@danielneu9136auf den Papieren ja… es wurden aber schon einige $ "investiert" und ein vielfaches davon wurde vorangekündigt für 2024 (ca 15 Milliarden, bis dato keine genau Zahl bekannt) und seit dem microsoft deal liegt die Valuation von openAI bei ca 80 Milliarden… Es ist nur eine frage des timings und paar regulatorischen Dingen mit der EU und dem U.S. Congress bis Microsoft sich die Mehrheit unter den Nagel reißt. Alles andere würde mich echt überraschen 😅
@@danielneu9136 Offiziell, man sieht aber bei Openai sehr gut was das in der Praxis heißt... besonders seit der Sam Altman Geschichte.
Nur Breaking lab klärt mich auf sonst niemand
Dann solltest du dir mehr Quellen suchen, Informationen aus nur einer Hand sind nie gut, immer mehrere
Nicht nur. Aber Jakob ist echt klasse. Besos y abrazos.
Damit passiert die KI-Entwicklung anderswo, aber nicht mehr in Europa.
ich find sowas krass scharf aber Lieferkettengesetz Fehlanzeige ..
@@VanadiumMit freundlichsten Grüßen - ihre FDP.
Ich glaube du überschätzt die Kraft, die ungeregelte Innovation im Vergleich zur geregelten Innovation mit sich bringt. Die KI-Systeme vor allem der global Player werden sich schon wegen der Marktkraft eines Players wie der EU selbst beschränken und zumindest nach außen versuchen den geforderten Auflagen gerecht zu werden. Außerdem wird meines Erachtens zwar nur langsam dafür aber stetig die Vorteile von gerregelten Systemen für die Bürger zu einem Bewußtsein für private Sicherheit mit KI führen. Ich würde es mal damit vergleichen, wie die meisten Eltern für ihre (schutzbedürftigen) Kinder besonders hohe Qualitätsansprüche an Spielzeug und Schuhen etc. stellen und dann häufig auch auf bekanntermaßen besser regulierte EU-Produkte zurückgreifen.
Insgesamt bin überzeugt, dass eine Gesellschaft/ Gemeinschaft, die sich frühzeitig auf die erkennbaren Bruchstellen zwischen Nutzen und Risiko einstellt auf lange Sicht die Nase im Umgang mit besagter Technologie vorne haben wird.
ergo: die EU wird an Bedeutung verlieren… vom rest der Welt abgehängt und zurückgelassen 😂
gib ihm volle Kante 💪🏻
🤦♂️🤦♂️🤦♂️ armes Europa, noch ärmeres Deutschland 🤷🏻♂️🫡
KI ist halt Neuland
Ich finde die Regelung als Informatik-Student eigentlich sehr gut, zb. dass man keinen extra Bias erstellt um diskriminierung zu bekämpfen, weil es dann kein richtiges lernen ist. Man sollte die Datensätze aber umfangreicher auswählen und auch parameter fürs kritische denken implementieren, da man vielleicht so schafft, dass die KI erkennt wann Trainingsdaten diskriminierend sind und auch mit dem "Hintergrundwissen" lernt.
das beste ist aber die Pflicht zur Kennzeichnung von KI erstellten daten. Ich würde mich auch eigentlich gerne äussern zum gebrauch in Militärischen zwecken, aber viele würden nur "Schwarz oder Weiß" sehen und nicht das "Grau", was ich beschreiben würde.
Genau, das ist das größte Problem...
Vorallem sollte man die KI beim lernen beobachten. Es bringt überhaupt nichts, wenn am Ende kein Mensch mehr versteht, welche Schlüsse und logischen Verknüpfungen die KI aus den Trainingsdaten gezogen hat.
@@ismirdochegal4804das geht mit den derzeitigen Modellen leider nicht so einfach. Es handelt sich im Grunde um künstliche neuronale Netze. Tiefe neuronale Netze können eine Komplexität von bis zu hundert Millionen einzelnen Parametern und zehn Milliarden Rechenoperstionen pro Eingangsdatum aufweisen. Die Interpretierbarkeit der Parameter und Erklärbarkeit des Zustandekommens der Ergebnisse ist hier nur noch eingeschränkt möglich.
Der Computer wird niemals deine Gedanken erahnen und somit auch der Zweck deines Tuns!😅
Sehr gut das jetzt schon anzugehen
GENEVA CHECKLIST- AI EDITION
"Aggesive KI Systeme ???" ist das ein Codewort für Kampfroboter ?
Und wieder eine neue Behörde und Bürokratie… ich kann ja verstehen das man es regulieren muss, aber schon wieder ne komplett neue Behörde?
Danke, könntest Du auch näher auf die Jobs eingehen, die beeinflusst werden? Was wird da reguliert?
Super Video danke dafür.
Mich würde mal interessieren, wer diese EU tolle sind , die kurz vor knapp Änderungen einstreuen geht ihm ganz in eine andere Richtung geben.
👀
Wichtig ist immer Gesetze in Marathonsitzungen zu entwerfen, mit dem Ergebnis: So wollten wir es eigentlich nicht, aber jetzt ist es so! Ein Arbeiter darf nur 10 Stunden arbeiten aber in der Politik ist es anderes die können das👍
Und ich frage wieder: wieso programmiert man den KI's nicht die drei Asimovschen Robotergesetze ein? Beispiel: Wenn ein Computer/Roboter einem Menschen nix schlechtes tun KANN, und der KI auch klargemacht wird das Worte weh tun können, wird sie von selbst draufkommen das Diskriminierung etwas schlechtes ist.
1.Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
Physischen Schaden zufügen ist ohnehin verboten oder wird bewusst so programmiert, psychischer Schaden kommt wahrscheinlich durch schlechte Trainingsdaten, das wird ja reguliert. Direkt einprogrammieren: "richte keinen Schaden an" geht praktisch nicht.
2.Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
Tut jede KI.
3.Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Wird kaum jemand anders programmieren
Die Regeln sind glaube ich von einem Standpunkt aus, dass Roboter eigenständig "handeln" können und kein Werkzeug zur Datenverarbeitung und -Generierung sind
und du hast in deinem leben noch keine Zeile code geschrieben…
so etwas geht nicht, da niemand weiß auf welcher Grundlage welche Entscheidung von einem Neuronalen Netz getroffen wurde.
wär interessant bis Utilitarismus im sinne von am wenigsten schaden ins spiel kommt...
So etwas wird bereits gemacht und es funktioniert recht gut, vor allem bei den neuen Modellen wie GPT4-t und Claude 3.
Und wie willste autonome KI-Soldaten verkaufen, wenn die niemandem Schaden? So funktioniert die Rüstungsindustrie nicht.
Wurde das neunhundertseitige Dokument mit KI erstellt?😅
Logisch, ChatGPT brauchte dafür rund 2.5 Std.
6:24
Fehlerhaftes Machinelearning und Flicken drauf ist keine adäquate Lösung gegen das Problem der Diskriminierung.
Mit dreckigen Daten ein Machinelearning zu füttern, ist einfach eine sehr schlechte Idee. Selbst wenn man hinten dran einen Flicken drauf pappt.
Die Philosophie "Move fast and break things" kann man gerne bei Spiele-Entwicklung machen. Aber bei bei derart wichtigen Systemen wie z.B. ChatGPT ist die Philosophie sehr schädlich.
10:10
Ein "das wird teuer" Argument gegen die Klassifizierung von kritischen Anwendungen, ist ein ebenfalls sehr schlechtes Argument. Preis, Qualität, Geschwindigkeit. Du kannst nur 2 davon haben. Andernfalls fliegt halt einfach mal die Tür einer Boeing raus.
2:30 in die Definition passen Bildgeneratoren nicht hinein. Die agieren nicht autonom. Da fallen alle Prompt-basierten Systeme raus.
Was ne Komplizierte definition für nen FIlter.
Unter welche Kategorie fallen X47 und Co 😅😂
Wie ist es wenn man seine Doktorarbeit damit schreibt?
Ehrlich gesagt traue ich der EU zum virtuellen Schutz der Bürger kaum noch nach Artikel 13 damals und der aktuell angestrebten chatkontrolle..sowas hätte rigoros abgeschmettert werden müssen fürs Vertrauen der Bürger 😅
2:12 Die haben sich das safe von KI generieren lassen😂
😊
Hi, ich weiß zwar nicht, wer du bist - ist halt in der AI-Kategorie bei UA-cam bei mir aufgepoppt - aber ich hab ein paar Anmerkungen.
Zunächst mal: Vielleicht ist ChatGPT selbstlernend - aber ich glaube es nicht, weil es für die Funktionalität nicht notwendig ist. KIs heutzutage sind eher in der Zeit eingefrohrene, statische Gebilde. Man hat ein fertiges Modell, das dann Anfragen bearbeitet, ohne dass es selber dabei verändert wird. Weiterhin ist eine Rechenkapazitätsgrenze zur Zeit eher schlecht, weil wir noch Grundlagen entdecken, die es erlauben, mit weniger Rechenleistung das Selbe zu erreichen. Politik funktioniert leider auf einem abstrakten Niveau, so dass nicht alles bis ganz nach unten durchdacht ist - Politiker sind oft sogar stolz darauf. Aber in diesem Fall bedeutet das, dass das ganze Gesetz an dem Problem vorbei geht - denn die ganze Technik spielt sich im Moment bevorzugt außerhalb der dem Gesetze inneliegenden Definition ab.
Mich interessiert dieses Thema. Leider muss ich mir eingestehen, dass ich bei dem Thema massiv überfordert bin.
Ich glaube es geht vielen so (mich eingeschlossen). Gibt nur keine so gerne zu.
Wo kann ich Aktien von KI-Unternehmen kaufen??? (Der kleine Mann kann das natürlich wieder nicht.)
Der ANzeigenhauptmeister hat ab heute neue Arbeit gefunden! XD
Gehört persönlichkeit auch zu hohen riskien ist ja auch grundrecht oder nicht? Das heisst ja das alle ki die online daten verwenden ihre daten offen legen.
Die Zukunft wird interessant.
Hier in Bremen werden Überwachungskameras auf öffentlichen Plätzen bei Demonstrationen ausgeschaltet und mit Blenden verschlossen. Dann gibt es keine Bilder die man auswerten könnte.
Warum wird das gemacht?
@@energiewende-rechnerdotde Datenschutz und Meinungsfreiheit.
@@VolkerHett Nun ja, das Demonstrationsrecht wird durch Kameras nicht eingeschränkt. Und Recht auf freie Meinungsäußerung auch nicht. Falls aber Straftaten während Demonstrationen begangen werden, könnten Kameras und KI helfen, die Täter zu fassen und natürlich auch präventiv zu wirken. Steine werfen, schießen und Pyrotechnik unter ggf. anderen, friedlichen Demonstranten entfesselt man nicht mehr so leichtfertig, wenn man weiß, dass alles aufgenommen wird. Das gilt für Straftäter unter den Demonstranten ebenso, wie unter ggf. übergriffig werdenden Ordnungskräften. Und DAS vor allem während Demonstrationen Straftaten begangen werden, ist vermutlich unstrittig.
Ich freue mich auf den KI Schwarzmarkt.
Wir driften immer weiter in Ghost in The Shell oder Cyberpunk 2077 ab.
wir werden im Nachinein GENAU wissen, wo wir versagt haben!
so ist das immer im Leben. Im Nachhinein ist man schlauer...
Und wieder eine Regulierung die ein Schuss ins Knie ist. Wie mit diesen nervigen Cookie Bannern.
Auch seltsam das sowas immer schnell geht aber das zum Beispiel in jedem
Gerät der Akku austauschbar sein muss, dass zieht sich ewig hin.
Ich finden den "Jetzt Kaufen" Button ganz toll. Die Cookie Banner sind völliger Bullshit.
Na herzlichen Glückwunsch. Kleine Player werden potenziell aus dem Markt gekegelt, aber für die Massenüberwachung hat man sich mit niedrigen Hürden alle Möglichkeiten offen gehalten. Dass sogar Verwaltungsbehörden biometrische KI einsetzen können und das sogar rückwirkend ist besonders verstörend.
So kann man sich sicher sein, dass man früher oder später auf irgendeiner Liste geführt wird, wenn man bei einem Thema mal in Ungnade fällt und blöd genug ist, sein Demonstrationsrecht wahrzunehmen...
"Dass sogar Verwaltungsbehörden biometrische KI einsetzen können und das sogar rückwirkend ist besonders verstörend." Nur wer Dreck am Stecken hat hat Angst davor.
Das ist Schwarzmalerei, sowas wird nicht passieren durch KI Nutzung in Behörden. Immer sagen das wir digital werden müssen, aber dann wieder schlecht reden wenn es konkreter wird. Außerdem wo lebst du, es ist nicht das Jahr 43 vor Christus in dem man auf Proscriptions Listen gesetzt wirst, sobald man nicht der Staatsline folgt.
Große Player sind ein großer Fan von Bürokratie, Regulation und Steuern da sie die Konkurrenzbildung verhindern und die Konzerne alle Möglichkeiten haben diese zu nutzen oder zu umgehen.
@@TK-xg8xq Ich sag nur Apple, Google, VW, Tata.
Gut zusammengefasst.
Ich würde hier zwischen technisch können und rechtlich können unterscheiden.
Wenn ein die Polizei ein Verbrecher verfolgt (oder gar einen Terroranschlag verhindern möchte - wie es gerade tatsächlich gemacht wird), dann soll sie nicht vor der bürokratischen Hürde eines "wir hätten die Daten zwar, aber du darfst nicht" stehen. Auf der anderen Seite darf nicht jeder kleine Verein auf solche Überwachungsdaten zugreifen und sie auswerten dürfen.
Hat sich da jemand die Lorentzkraft, aka physiker Gang sign geklaut!!???
Lorentz, der Mann hieß Lorentz.
@@lomiango 🤓☝🏼
@@karim_tsuji8735 Statt mit so dummen Emojis zu antworten, hättest du auch einfach deinen Fehler im original Kommentar ausbessern können...
@@lomiango joooo chill das war ein Witz, alles gut ich korrigiere es natürlich tut mir leid das ich dich beleidigt habe.😭
@@karim_tsuji8735 ,dass*
Aber Spaß beiseite. Danke, dass du die Kritik angenommen und deinen Kommentar angepasst hast! 🤝
Ich finde sowas grundsätzlich gut. Wenn immer heutzutage irgendwas großes, neues versucht wird, gibt es immer zuerst und am lautesten die Bedenkenträger. Ich gehe da mit dem früheren US Präsidenten FDR: „When you have problem, try something, when that doesn’t work, adapt. But goddamit *try something!*
Dass mit der Meinungsfreiheit wird noch richtig intensiviert. Denke ich
Hä…… wenn man statistische Modelle zur fortlaufenden Schätzung bestimmter entscheidungsgrenzen verwendet wird das dann auch schon EU-Bürokratisierte AI?
Die Modelle sind Open Source …… können also von jedem verwendet werden …… ist halt dann nur eine frage von "Geduld" was die Rechenleistung des Prozessors angeht.
Kennzeichnung von AI Kontent ist so doch schon wieder durchsetzbar …… wenn irgendwelche versierten Aktivisten irgendwelche Content kreieren …… und da dann nochmal einen Filter drüber jagen der unterschwellige Bild- und Tonfehler einer Kamera simulieren um "forensische Echtheit" zu erzeugen. Im Grunde muss man antizipieren das alles einfach nur falsch sein kann …… und jeder "Fotobeweis" im Grunde nichts Beweist.
Was auch nicht vergessen werden kann ist Moores LAW …… Prozessoren also immer schneller werden. Neuere GPUs können wegen AI Real*2 und Real*1 …… CPU's werden das sicher auch bald können, was den Speicherzugriff vereinfacht weil mit der gleichen Bandbreite doppelt respektive 4 Mal soviel gerechnet werden kann. Es gibt sogar eine Definition für Real*½. Bei so kleinen Werteräumen kann auch mit schnöden Tabellen gerechnet werden.
Auch nicht übersehen werden kann, das die Ineffektivität modernerer CPUs (Flops / Transistor) durch neue Konzepte überwunden werden könnte …… Sei es das es Photonische CPU's z.B auf Licht Basis mit Tacktraten von THz anstatt GHz …… sei es das der Overhead von P-Kernen durch besser skalierende Architekturen ersetzt wird so das Waver Scale Engines die es schon heute als Parralelrechner mit sehr vielen Kernen gibt plötzlich sehr gut hoch skalieren können.
Und dann gibt es ja noch die reinen Softwaredinger die nur auf dem Internet berauchen wie die Anwendungen "Seti@Home" und deren Derivate.
Diese Gesetzgebung ist ein reiner Gummiparagrafenwust um eingreifen zu können -- nicht mehr und nicht weniger.
Und die Sache mit der Diskriminierung ist auch so eine Sache. Wenn ein bestimmtes Merkmal mit einer Korrelation zu einer Leistungsfähigkeit oder Defizit verbunden ist dann ist das halt so.
Jede wie auch immer geartete Auswertung wird das so finden.
Anderes Ausgedrückt: Ich könnte mich als weißer diskriminiert fühlen weil im 100 Meter Finale der olympischen Spiele typischerweise fast ausschließlich oder ausschließlich dunkelhäutige Athleten vertreten sind …… obschon eine Stop Uhr ein an sich unbestechliches Instrument ist. Und das sogar bei den olympischen Spielen in Berlin wo auch das "politische Umfeld" eine derartige "Begünstigung" sicher nicht zugelassen hätte.
Du sagst, dass es möglich sei oder bereits Verfahren gäbe, KI-Systeme nachträglich also am Output zu dediskriminieren. Kannst du darüber etwas erzählen, wie das funktionieren soll? Bei KI-Systemen (im hier diskutierten Sinn) handelt es sich ja gerade um Systeme, bei denen man abgesehen von den Trainingsdaten nicht weiß, wie das Ergebnis zustande kommt bzw. nach welchen Kriterien. Sie funktionieren ja gerade nicht nach programmierten Regeln auf Sachebene. Schon der Versuch zu verhindern, dass KI-Systeme Kriminalitätsanleitungen generieren, ist soweit ich weiß nicht trivial. Ein hinter die KI geschaltetes Filtersystem muss ja ebenfalls die Inhalte analysieren und nach irgendwelchen Kriterien bewerten, hat also wieder das gleiche Problem wie das ursprüngliche System. Bei Upload-Filtern u. Ä. funktioniert es ja auch nicht (bzw. nur mangelhaft).
Man hätte doch die KI-Verordnung von einer KI verfassen lassen. 😆
Also, ich denke, es wäre besser, wenn die Politik das AI-Gesetz noch einmal überprüfen würde. Wir könnten dann ohne Gesetz dastehen, und ich denke, dass dies langfristig dazu führen wird, dass sich die Tech-Unternehmen ausgebremst fühlen und sich zurückziehen. Noch gravierender ist, dass sie, wie UA-cam mit den Algorithmen, Änderungen vornehmen könnten, die die Meinungs- und Versammlungsfreiheit einschränken.
Ja ich finde man sollte Ki regulieren, ich studiere Medien Design und bei uns im Studium werden, die Risiken sehr ausführlich besprochen. Und will nicht all das Geld umsonst rein gesteckt haben nur damit Kapitalistische Firmen sich eher wegen Geld Einsparungen und dadurch resultierendem höherem Umsatz für eine Maschine entscheiden.
So aufwendig ist es, so ein Gesetzesentwurf zu verfassen?!?
🤔 kann man das nicht von ChatGPT erledigen lassen?
Das ist der Grund warum ich die EU unterstütze. Umso mehr Anforderungen man an die Union stellt, desto eher wird man natürlich auch enttäuscht. Für die Bereiche für die Union geschaffen wurde, macht sie aber respektable Arbeit, Angleichung der Vorschriften bei Wirtschaft, Umwelt, Verbraucherschutz etc.
Da gibt es nicht wenige wirklich sinnvolle und nützliche Rechtsakte die mein Leben unmittelbar vereinfacht haben (AGB-Richtlinie, Kaufrecht-Richtlinie, die Rom und Brüssel Verordnungen, sowie die FluggastrechteVO)
Ich bin erstmal der Meinung, dass es einen schon zu denken gibt, dass im Umgang mit KI so viel reguliert werden soll und gleichzeitig eine effektive Regulierung des menschlichen Zusammenlebens in der Praxis in eigentlich jedweder Form gefühlt fast überhaupt nicht stattfindet, obwohl das mindestens ebenso wichtig wäre. Davon abgesehen ist es natürlich sinnvoll, dass man KI reguliert. In welcher Form man das macht, ja gut, das sei mal dahingestellt. Da wird mit Sicherheit noch viel rumjustiert, entweder, weil man dann doch feststellt, dass der Arbeitsaufwand für staatliche Stellen schnell zu groß wird, oder, weil einige der Firmen und Verbände, die jetzt auf diese Regelung gepocht haben, dann doch früher oder später rausfinden, dass sie sich damit selbst ein Bein gestellt haben.
Da wird mit Sicherheit ein Schwarzmarkt auftauchen der unkontrollierbar sein wird! Auch Formulierungsweise einer Frage kann eine Umgehung darstellen und Infos preisgeben die eigentlich vermieden werden sollten!
Wie hier schon oft geschrieben: Der AI-Act wurde von der KI selbst verfasst!
Soweit ich gehört habe wird auch darüber diskutiert, ob KI Systeme sicherheitsrelevante Entscheidungen grundsätzlich selbst treffen können sollen oder ob immer ein Mensch "auf den Knopf" drückt. Kannst du dazu noch mehr sagen? Letzteres klingt m. E. zunächst beruhigend, aber gerade bei militärischen Anwendungen wird schnell klar, dass KI ja nicht nur Lösungen anbieten soll, auf die der Mensch nicht gekommen wäre, sondern dass sie vor allem Situationen sehr viel schneller bewerten kann, als der Mensch. Wenn man nun die Komponente Mensch aus ethischen oder Sicherheitsgründen drin lässt, verliert man diesen Geschwindigkeitsvorteil, was man sich im Krieg vermutlich nicht leisten kann. Verzichtet man aber auf die Komponente Mensch, überlässt man damit einer KI, deren Entscheidungsmechanismen man prinzipiell nicht versteht - egal wie gut sie getestet wurde - die Entscheidung über Leben und Tod.
Hmm.
Solche Regelwerke müssen kommen, das steht außer Frage. Ob die aktuellen Regeln das Gelbe vom Ei sind, muss die Zukunft zeigen. Bei der Komplexität solcher Gesetze ist es doch aber vollkommen normal, dass noch ganz viel nachgesteuert werden muss. Niemand kann alle Eventualitäten abschätzen. Abgesehen davon müssten diese Regeln nicht nur in der EU, sondern ausnahmslos international gelten.
Wie definiert sich hier z.B. eigentlich Diskriminierung und wer legt fest, was genau diskriminierend ist? Wie werden hier - sofern gesellschaftliche Entwicklungen dies nötig machen - Anpassungen an bestehenden Systemen vorgenommen? Abgesehen davon halte ich den Begriff der KI schon für fehlgeleitet: Bislang können wir allerhöchstens von EI sprechen, von erweiterter Intelligenz. Künstliche Intelligenz wäre es aus meiner Sicht erst, wenn sie die Grenze des Ich-Bewusstseins überspringt und sich selbstständig optimieren kann. Ab dem Zeitpunkt können wir aber eh nur noch hoffen, dass die KI uns wohlgesonnen ist und die Logik der KI nicht gebietet, menschliches Leben als Gefahr oder anderweitig abzuschaffen einzustufen...
Aber dürfte ich z.b eine super Ki auf einen server im meinem haus laufen lassen?
Wenn sie nur in deinem Haus rum läuft ist alles ok. Aber wehe du lässt mal versehentlich die Tür auf.
@@brand-konto6079 hahaha bester bis jetzt xD
Der Ai-Act scheint sehr schlüssig und durchdacht zu sein
2 Jahre noch?... naja besser spät als nie
Ich will gar nicht wissen was es in 2 Jahren für potentielle Gefahren durch KI-Systeme gibt. Als wäre generative KI nicht jetzt schon ein riesiges Problem...
Kaum zu glauben dass ich noch miterleben darf, dass Buzzwords für pattern matching auf diesem Kanal als solche bezeichnet werden.🙄 Auf der anderen Seit scheinen die Fertigkeiten der meisten Mitmenschen auch nicht mehr als das herzugeben...
wie ist es wenn KI zum Beispiel Kriminalstatistik bewerten soll und dort ein Herkunftsland überdurchschnittlich drin ist. Würde die KI es dann ignorieren??
Hat schon einen Grund wieso man lieber in den USA ein Startup gründet anstatt in der EU
Wenn du es hier machst, ist dir auch nicht mehr zu helfen 😂
Klingt polemisch. Magst du bitte den "Grund wieso man lieber in den USA ein Startup gründet anstatt in der EU" noch weiter ausführen?
@@ismirdochegal4804es ist einfach einfacher
@@ismirdochegal4804Was ist daran bitte polemisch? Leider ist es einfach die Wahrheit.
Es gibt mehr als genug Gründe, in Deutschland beispielsweise ist es sehr viel aufwändige und nicht unbedingt nötige Bürokratie.
Du kannst ja einfach mal die Zahlen vergleichen und dir wird ganz schnell ein Trend auffallen.
@@lukas-kevynmuller6697Ich sage ja nicht, dass ich dir nicht glaube. Ich möchte nur die Gründe erfahren. Bürokratie ist ein Grund ja. Und weitere Gründe sind...?
was passiert, wenn ich meine eigene KI baue oder zumindest installiere? Wer sollte das kontrollieren? Man kann vielleicht illegale Umbauten oder Geschwindigkeiten am Auto kontrollieren, die Konten/Steuern. Schon wenn eine Inselanlage/PV auf Privatgrund betrieben wird, ist das dem Grundstückeigentümer überlassen.
Wenn eine KI privat betrieben wird - wer guckt, wenn die hilft, eine Waffe "Virus" zu bauen, oder eine "super KI" zu entwickeln, die nicht mehr als solche erkannt werden kann?
ich bin sehr positiv überascht
Das Gesetz ist kein Problem.
The cake is a lie.
Langsam verstehe ich warum viele Firmen aus Deutschland abwandern und nach China oder Amerika gehen, manche Sachen sind meiner Meinung nach in der EU Überreguliert.