KI-Revolution: Was der neue AI-Act der EU für euch bedeutet | Anwalt Christian Solmecke

Поділитися
Вставка
  • Опубліковано 28 чер 2024
  • Die Zukunft des Informationsmanagements: amberSearch jetzt kostenlos ausprobieren: bit.ly/3Xl61vJ (WERBUNG)
    Die EU hat den Rechtsrahmen für Künstliche Intelligenz verabschiedet. Der AI Act setzt neue Standards für KI-Systeme und will die einhergehenden Chancen und Gefahren in den Griff bekommen. WBS fasst das Wesentliche zusammen und gibt einen Ausblick auf die zukünftige Rechtslage.
    Videos Pelligrini 1: www.dropbox.com/scl/fi/iuiokr... 36c87288065a.webp?rlkey=llsrgyp1fc22vnez3apijrhvo&dl=0
    Video Pelligrini 2: • This is a A.I. Model t...
    Tweet: www.dropbox.com/scl/fi/s48uei...
    Bild Abstimmung: media1.faz.net/ppmedia/w1240/... im-eu-parlament-am.jpg
    Übersicht AI Act: bankenverband.de/_next/image/...
    04%2FCon_Grafik_General-Purpose-AI-Models_DE.jpg%3Fitok%3DVNEmuwlT&w=2048&q=75
    44b UrhG www.gesetze-im-internet.de/ur...
    ▬▬▬▬▬▬▬▬▬▬▬▬▬
    WBS.LEGAL sucht dich! Du bist auf der Suche nach einem attraktiven, spannenden und anspruchsvollen Job? Dann bewirb dich bei uns und komm in unser Team. Bei WBS.LEGAL arbeitest du im Herzen der Medienhauptstadt Köln und bist im Berufsleben immer am Puls der Zeit - garantiert.
    Hier unsere offenen Stellenangebote: www.wbs.legal/karriere/#jobs
    Was erwartet dich bei uns? Hier bekommst du weitere Infos: www.wbs.legal/karriere/.
    ▬▬▬▬▬▬▬▬▬▬▬▬▬
    Rechtsanwalt Christian Solmecke
    Christian Solmecke hat sich als Rechtsanwalt und Partner der Kölner Medienrechtskanzlei WBS.LEGAL auf die Beratung der Internet-, IT- und Medienbranche spezialisiert. So hat er in den vergangenen Jahren den Bereich Internetrecht/E-Commerce der Kanzlei stetig ausgebaut und betreut zahlreiche Medienschaffende, Web-2.0-Plattformen und App- Entwickler.
    Neben seiner Tätigkeit als Rechtsanwalt ist Christian Solmecke vielfacher Buchautor und als Gründer der cloudbasierten Kanzleisoftware Legalvisio.de auch erfolgreicher LegalTech-Unternehmer.
    ▬▬▬▬▬▬▬▬▬▬▬▬▬
    Virtueller Kanzlei-Rundgang: wbs.law/rundgang
    Startet euren Rundgang in 3D und 360° durch die Kanzlei WBS.LEGAL (inkl. UA-cam- Studio)
    ▬▬▬▬▬▬▬▬▬▬▬▬▬
    Social-Media-Kanäle von WBS.LEGAL
    Wir freuen uns, wenn du uns auch auf unseren weiteren Social-Media-Kanälen besuchst und uns dort folgst. Jeder unserer Kanäle steht für sich und bringt dir garantiert einen Mehrwert.
    ▬Instagram und TikTok▬
    Auf unserem erfolgreichen Instagram- und TikTok-Kanal recht2go räumen wir täglich mit Rechtsirrtümern auf und präsentieren dir rechtliche Lifehacks. Mit recht2go bist du immer auf dem Laufendem und bekommst deine tägliche Dosis Alltagsrecht. Kurz, knackig und immer auf den Punkt. Folge uns auf auf Instagram und TikTok und du kannst vor deinen Freunden mit neuem Wissen glänzen.
    ➥ Instagram: wbs.law/recht2go
    ➥ TikTok: wbs.law/recht2goTikTok
    ▬Facebook▬
    Auf Facebook sind wir inzwischen schon alte Hasen, denn seit Jahren informieren wir dich dort täglich über aktuelle Rechts-News. Gerne kannst du uns dort auch eine Anfrage als private Nachricht schicken. Schau vorbei! Hier der Link:
    ➥ wbs.law/facebook
    ▬X / Twitter▬
    Erfahre als Erster, wenn es wichtige Rechts-News gibt. Knackige Statements zu aktuellen Themen bekommst du auf unserem X-Account (ehemals Twitter)! Hier der Link:
    ➥ wbs.law/twitter
    ▬Podcasts▬
    Du bist unterwegs, unter der Dusche oder hörst einfach gerne Podcasts? Dann haben wir etwas für dich: Höre die Tonspur unserer Videos täglich auf Spotify, Soundcloud und iTunes. So bleibst du immer aktuell! Hier die Links:
    ➥ wbs.law/spotify
    ➥ wbs.law/soundcloud
    ➥ wbs.law/apple
    ▬Unser Zweitkanal▬
    Unseren weiteren UA-cam-Kanal „WBS - Die Experten“ kennst du, oder? Wenn nicht, dann unsere dringende Empfehlung: Schau rein! Denn hier erfährst du immer donnerstags ausführlich alle wichtigen Infos zu unseren Rechtsbereichen - präsentiert von einigen unserer Top-Rechtsanwälte. Ob Medienrecht, Urheberrecht, Markenrecht, Social-Media- Recht, Verkehrsrecht oder Datenschutzrecht: Das alles und mehr nur auf unserem Zweitkanal und zwar aus erster Hand von unseren WBS-Experten. Hier der Link:
    ➥ wbs.law/dieexperten
    ▬Kontakt▬
    Hotline: 0221 / 400 67 550
    E-Mail: info@wbs.legal
    Video produziert von: So geht UA-cam (www.so-geht-youtube.de)
    Thumbnail produziert von: Pixit (www.pixitai.io/)

КОМЕНТАРІ • 212

  • @Sannahmusic
    @Sannahmusic 5 днів тому +14

    Ich bin bei Facebook und Instagram auf die Aktivität von AI hingewiesen worden sowie auf meine Möglichkeit, begründet zu widersprechen. Das habe ich getan und begründet, dass ich urheberrechtsrelevante Inhalte poste (eigene Sachen). Dem wurde stattgegeben und das wurde mir auch bestätigt.

    • @andi8343
      @andi8343 4 дні тому +1

      Ganz toll gemacht!

    • @Sannahmusic
      @Sannahmusic 4 дні тому

      @@andi8343 Danke. Empfehlung an alle die das auch so rechtfertigen könnten!

    • @Katojana
      @Katojana 3 дні тому +1

      Ich denke jegliche Begründung ist ausreichend dafür xD was anderes dürfen die garnich

    • @Sannahmusic
      @Sannahmusic 3 дні тому +1

      @@Katojana Leider sind Gesetze nicht immer mit dem individuellen Rechtsempfinden vereinbar. Hier wurden in der Vergangenheit so einigen Direktiven Vorrang vor Menschenrechten gegeben.

  • @sirmeon1231
    @sirmeon1231 5 днів тому +5

    Ich sehe es schon kommen: "Für den Zulassungsantrag senden Sie bitte den Quellcode auf einseitig bedrucktem DIN A4 Papier ein. Bitte lose und weder getackert noch mit Büroklammern, damit die Digitalisierung erleichtert wird.
    Andere Formen der Einreichung werden ignoriert." 😂

  • @SirBSpecial
    @SirBSpecial 4 дні тому +3

    Was ist denn der Unterschied zwischen Hochrisiko KIs und dem was Auskunfteien mit unseren Daten machen?

  • @DeeplyDivided
    @DeeplyDivided 5 днів тому +27

    Sehr interessantes Thema, gerne mehr. 1000 Fragen. Z.B. Social Media verlangt mittlerweile Kennzeichnung bei AI Inhalten. Ich mache z.B. handgemachte Musik, aber nutze AI als grafische Untermalung in den Videos (Beispiele auf meinem Kanal). Ich möchte aber nicht, dass meine Songs als AI gekennzeichnet werden, weil dann jeder meint, meine Musik ist AI generiert. Selbst die Musik ist nicht frei von AI, so werden z.B. beim Mastering Tools benutzt, die den Klang mit AI Technologie verbessern. Wie soll man hier jemals Transparenz erlangen? Zu 2,53 Prozent AI generiert?

    • @Chris3s
      @Chris3s 5 днів тому +2

      Habe keine konkrete Antwort, aber du kannst dein KI Bild im Bildbearbeitungsprogramm etwas abändern und Schrift drauf tun und dann ist es genug abgeändert und dann solltest keine Probleme haben

    • @Dalmen
      @Dalmen 5 днів тому

      Das Werk an sich ist nicht KI generiert wenn du die KI als Werkzeug verwendet hast. Nur wenn du alles per KI erstellst und kaum Eigenleistung einbringst. Wenn du neben der Verwendung von Prompt selber viel dazu beigesteuert hast, ist es ein Werk von dir und nicht der KI. Ich kann nicht für die Auslegung allerdings von Social Media zu KI was beitragen. Mein Ansatz kommt von Kopierrechtlichen Aspekt der Medien. Man muss sich die Nutzungsbedingungen der Social Media dazu genau durchlesen ab wann die eine Kennzeichnung verlangen. Das kann ja jede Platform für sich bestimmen.
      Eventuell reicht es in den Bemerkung anzugeben das die Bilder KI generiert sind. Ich glaube kaum das die KI fürs Mastering mit angegeben werden muss, ansonsten müsste man auch bei einer KI Rechtschreibkorrektur den Text als KI generiert Labeln.😂

    • @callisto2895
      @callisto2895 5 днів тому +3

      Du könntest gemeinfreie Bilder ohne AI nutzen. Ki-gestütztes Mastering ist auch was völlig anderes als KI-Generierung. NASA und ESA bieten bspw Weltallbilder an, etliche Kunstmuseen haben ihre Werke gemeinfrei digitalisiert. Auf AI verzichten ist nicht schwer.

    • @twisted_cry
      @twisted_cry 5 днів тому

      @@DeeplyDivided Ein vollständiger Satz im Deutschen benötigt mindestens ein Subjekt und ein Prädikat. Ein vollständiger Satz könnte beispielsweise lauten: „Ich habe 1000 Fragen.“ oder „Es gibt 1000 Fragen.“

    • @CAndrewBlack
      @CAndrewBlack 5 днів тому

      @@callisto2895 Und gute Stockfotos gibts auch genug, so wie Canva

  • @schlend4
    @schlend4 5 днів тому +3

    Wie ist denn das Pricing von amber search? Ist es basierend auf der Mitarbeiter Anzahl oder anzahl an Computer oder so des Unternehmens? Wär ja sonst kacke wenn ein 15 Personen Betrieb ähnlich viel zahlen muss wie in 10.000 Personen unternehmen.

    • @ambersearch
      @ambersearch 3 дні тому +2

      Nutzerbasiert, bei größeren Nutzermengen gibt es ein individuelles Angebot

  • @weberwurm2010
    @weberwurm2010 3 дні тому +3

    Schön, wenn der Regenschirmstiel mitten durch den Hals geht.
    Und da soll K.I. täuschend echt sein?
    Auch hier wieder: SELBER DENKEN, KRITISCH SEIN und SELBER RECHERCHIEREN.
    Der Fehler liegt, wie immer, im Detail.
    Denn die Wirklichkeit lässt sich nicht perfekt simulieren.

  • @princessoatmilk
    @princessoatmilk 5 днів тому +15

    4:09 Was'n hier passiert? :D

    • @schlend4
      @schlend4 5 днів тому +9

      Solmekes ai avatar hatte kurz nen glitch 😂 jk

    • @NC-oe1tj
      @NC-oe1tj 5 днів тому

      Die AI der Matrix hatte einen kurzen Aussetzer und man hat hat gesehen, dass Herr Solmecke eigentlich ein Teil der Bluemangroup ist

    • @O_Lee69
      @O_Lee69 5 днів тому +6

      Forza war fertig runtergeladne

    • @Wollidiot0815
      @Wollidiot0815 4 дні тому +2

      Diese Farb"glitches" sind mir schon seit einer Weile in einigen seiner Videos aufgefallen.

    • @MrGTAmodsgerman
      @MrGTAmodsgerman 4 дні тому +3

      Da war kurz die Wahrheit zu sehen. Solmecke ist eigentlich aus Avatar.

  • @XMysticHerox
    @XMysticHerox 5 днів тому +3

    Die Frage ist noch offen inwiefern anonymisierte bzw synthetisch generierte Daten verwendet werden können. Wird interessant wie es dann in der Umsetzung aussieht.

  • @maxpowers5044
    @maxpowers5044 5 днів тому +3

    Die Atomkraftwerke abschließen können wir in Deutschland schon selbst, da brauchen wir keine AI für xD

  • @psyringe5627
    @psyringe5627 5 днів тому +5

    Interessant, dass eure Vorschaubilder nun mit KI produziert werden. Betrifft das bereits die Bilder aus der jüngeren Vergangenheit? Die wirkten auf mich nämlich teilweise recht komisch und sehr unprofessionell zusammengesetzt. Ich hatte mich schon gefragt, ob der eigentliche Designer vielleicht im Sommerurlaub ist. Wenn die von einer K"I" zusammengeschustert wurden, würde das natürlich einiges erklären.

  • @dertobbe1176
    @dertobbe1176 5 днів тому +2

    Hey wbs Team 👋 könntet ihr zu dem Thema ein Video machen zu bildrechten? Was ist mit kommerzieller Nutzung von generierten Bildern von Anbietern wie beispielsweise freepik? Freepik selbst hat sich da in den terms of use fein eingenommen und alles schön schwammig formuliert. Wäre sehr interessant. Danke im Vorfeld

    • @nico1970real
      @nico1970real 5 днів тому

      Freepic, Pixabay, CreativFabrica (ich habe einen kostenpflichtigen Account) und andere "legalen" Anbieter sind ja eh sehr komisch. Ich habe die Rechte, nur weil der, der sie zur Verfügung stellt behauptet es sei eine eigene Kreation. Was aber nun, wenn der Hochladende selber kopiert hat und eigentlich gar kein Recht am Produkt hat? Dann habe ich als Unwissender auch keine Rechte - auch wenn ich die Sachen von dieser Plattform habe. Die TM Prüfung ist also dennoch notwendig.

  • @sureface70privat9
    @sureface70privat9 5 днів тому +2

    Das Thema ist irgendwie schon interessant. Finde es amüsant, von einer (künstlichen) Intelligenz zu reden. Nebenbei spricht man von Training.
    Das, was da trainiert wird, ist lediglich eine Datenbank, auf die ein programmierter Algorythmus zugreift und sich dadurch erweitert. Von einer wirklichen Intelligenz ist das Ganze noch sehr weit entfernt.
    Etwas, was eine Intelligenz besitzt und sich dessen bewusst ist. Auch wenn sie künstlich erschaffen wurde: Einfach abschalten und löschen, ist wieder eine heikle Frage. Nur weil man personenbezogene Daten heraushaben will.
    Das wäre fast, als ob man einem Menschen versuchen möchte, das Gehirn zu löschen, damit dieser sich nicht mehr an einen erinnert. Da das nicht machbar ist, müsste man Schlussendlich diesem Menschen sein Leben beenden. Was menschlich nicht vertretbar ist. Stelle mir also die Frage: Ist es bei einer KI vertretbar, besonders wenn Sie sich Ihrer selbst bewusst ist, Ihr Dasein zu beenden? Zählt diese KI dann nicht zu einer neuen Gattung von Leben?

    • @psyringe5627
      @psyringe5627 5 днів тому +2

      Kleine Korrektur: KIs sind keine Datenbanken, das sind zwei grundverschiedene Konzepte. Das, was wir (ca. seit den 60ern) als "KI" bezeichnen, sind Netzwerke digitaler Knoten, die den Neuronen im menschlichen Gehirn (sehr grob) nachempfunden wurden. Diese Netzwerke erhalten eine bestimmte Eingabe und produzieren daraufhin eine bestimmte Ausgabe. Das besondere an ihnen ist, dass die Ausgabe eben gerade nicht vorprogrammiert ist oder aus einer Datenbank gefischt wird. Stattdessen hat das Netzwerk die Möglichkeit, die Art und Weise, wie Information von Knoten zu Knoten weitergeleitet wird, selbst zu ändern. Das ist auch der Grund warum ein "Training" notwendig ist: Dem Netzwerk wird zunächst eine Eingabe gegeben, und es wird eine zufällige Ausgabe produzieren, die in der Regel nicht der gewünschten Ausgabe entspricht. Dann wird dem Netzwerk die "korrekte" Ausgabe gezeigt. Das Netzwerk ändert dann die Art und Weise der internen Informationsweiterleitung so, dass beim nächsten Mal die gleiche Eingabe wahrscheinlicher zu der "korrekten" Ausgabe führt. Wenn das Training abgeschlossen ist, steckt das gesamte "Wissen" der KI in der Art und Weise, wie Information zwischen Eingabe und Ausgabe umgewandelt wird, so dass eben gerade keine Datenbanken oder vorprogrammierte Algorithmen nötig sind. (Sie können und werden in komplexen KIs oft zur Unterstützung verwendet, haben aber nichts mit der "Entscheidungsfindung" der KI zu tun).
      Das, was viele Leute in diesem Prozess als "Intelligenz" wahrnehmen (ich selbst bin da wie Sie eher skeptisch), ist der Fakt, dass eine gut trainierte KI korrekte Antworten auf Fragen finden wird, die Sie eben nicht einprogrammiert haben. Wenn Sie z.B. ein solches Netzwerk mit einfacher Arithmetik wie der Eingabe "2+3" und der Ausgabe "5" trainieren, und eine ausreichende Variation in Ihrem Trainingsmaterial haben, dann wird das Netzwerk nach einiger Zeit auch korrekte Antworten zu Rechenaufgaben liefern, die in Ihrem Trainingsmaterial nie vorkamen - und das, obwohl Sie dem System nie einen Additions-Algorithmus einprogrammiert haben. Da stellt sich dann für viele Beobachter die Frage: Hat das Netzwerk Addition "verstanden"?
      Ich bin da wie gesagt sehr skeptisch und ich finde wie Sie, dass das, was wir heute als KI bezeichnen, von Dingen wie einem Verständnis der Daten oder gar "Bewusstsein" viel weiter entfernt sind, als gemeinhin vermutet wird. Als jemand, der selbst an KIs gearbeitet hat, fühle ich mich beim aktuellen KI-Hype an den "Fusionsreaktor"-Hype erinnert - wo uns seit Jahrzehnten erzählt wird, dass bahnbrechende Fortschritte bevorstehen, aber fundamentale Probleme sind seit genauso langer Zeit ungelöst.
      Sorry falls der Kommentar "belehrend" rüberkommen sollte - ich wollte einfach die Chance nutzen, ein häufiges Missverständnis zur technischen Nature von KI aufzuklären. :)

    • @sureface70privat9
      @sureface70privat9 5 днів тому +1

      @@psyringe5627 Danke. Ist sehr gut erklärt. Wollte es nicht so ausführlich aufführen. Deshalb habe ich es kurzer Hand als Datenbank bezeichnet. Aber ja, ist keine Datenbank. Und Nein, ist nicht im Bösen Sinne belehrend. Es ist ergänzend. 🤣 Danke Dir.

  • @sandrauhling9475
    @sandrauhling9475 3 дні тому +1

    Eine KI die Gesetze inkl. GG menschenrechtskonform anwendet und auslegt wäre ziemlich gut.
    Menschenrechtsabkommen sind living instruments. Sie werden entsprechend der gesellschaftlichen Entwicklung verstanden. D.h. die Begleitdokumente können sehr umfangreich sein. Und je nach Fall müssen unterschiedliche Informationen verwendet werden. Hinzu kommt ein oft anderes Verständnis z.B. was Nichtdiskriminierung und Mehrkosten angeht.

  • @fusel1987
    @fusel1987 4 дні тому +1

    @wbs zählt unter ki auch rpa? Also roboter Prozesse die zb men rentenamtrag lesen und dann bewilligen?

    • @valentinmunch2941
      @valentinmunch2941 3 дні тому

      Das würde glaube ich auch unter Hochrisiko-KI's falllen.

    • @fusel1987
      @fusel1987 2 дні тому

      @@valentinmunch2941 denke das ist keine ki

  • @CJO-no1
    @CJO-no1 5 днів тому +13

    Axel kennt man auch von Chat Kontrolle und anderen Antidemokratischen Aktivitäten...

    • @TheCobraCom
      @TheCobraCom 4 дні тому +3

      Das wäre so einer, den man gerne durch eine KI ersetzen dürfte. Besser künstliche Intelligenz als gar keine.

  • @SuperTruperHans
    @SuperTruperHans 5 днів тому +2

    Gut man muss allerdings auch bei den unzumutbare Risiken bezogen auf die Kameraüberwachung bei der Suche von Straftätern auch die entsprechenden Institute, Organisationen und Behörden in ihre Schranken weisen. Man kann ja mit Kamerasystem nach Straftätern suchen solange die gescannten Gesichter oder die Informationen wer wo ist und was diese Person gerade macht nicht gespeichert und bestehende Informationen nicht in Zusammenhang bringen. Dann würde ich Kameraüberwachung mit Gesichtserkennung weniger hoch einstufen. Wenn die Daten allerdings doch gespeichert werden dann wird es kritisch

  • @psyringe5627
    @psyringe5627 5 днів тому +37

    Am Anfang des Videos wird suggeriert, dass das Problem diskriminierender KI dadurch erzeugt wird, dass einseitig selektierte Daten zum Training verwendet werden. Das war beim präsentierten Beispiel (Microsofts "Tay" Chatbot") auch sicher der Fall. Als allgemein formulierte Aussage zielt es aber m.E. am Hauptproblem vorbei: Auch und gerade bei kompletten, nicht vorselektierten Datensätzen kommen KIs regelmäßig zu diskriminierenden Entscheidungen. Einfaches Beispiel: Frauen sind erwiesenermaßen mehr Tage im Jahr krankgeschrieben als Männer. Teils liegt das natürlich an Schwangerschaften und daran, dass bei kranken Kindern eben häufig die Mutter zuhausebleibt, seltener der Vater. Auch daher dürfte ein deutscher Arbeitgeber natürlich nicht mit Argumenten wie "Wir stellen nur Männer an, die sind weniger krank" dahergekommen, er würde sich der Diskriminierung schuldig machen. Eine rein an objektiven, kompletten, nicht einseitig ausgewählten Daten trainierte KI könnte aber dennoch zu genau diesem Ergebnis kommen und dem Unternehmen vorwiegend männliche Bewerber empfehlen. Und das Problem hierbei ist: Aufgrund der Funktionsweise des zugrundeliegenden neuronalen Netzwerks könnte niemand analysieren, ob die KI tatsächlich auf diese Weise diskriminiert oder nicht. Die KI selbst kann natürlich auch nicht "erklären", warum sie zu bestimmten Ergebnissen kommt, sie "versteht" ja nullkommanichts von den Daten - sie schleust sie nur durch einen komplexen mathematischen Algorithmus und wirft das Ergebnis aus.
    In Kürze: Das Problem diskriminierender KI entsteht nicht (nur) durch einseitiges Training. Es entsteht vor allem dadurch, dass sich viele Diskriminierungen aus vollständigen, nicht selektierten Datensätzen durchaus plausibel ableiten lassen. Wir haben als Gesellschaft lediglich (aus gutem Grund) entschieden, diese Ableitungen nicht durchzuführen, weil wir niemanden aufgrund von Geschlecht, Rasse, Alter, Herkunft, etc. benachteiligen wollen. Einer KI können diese gesellschaftlichen Werte nicht vermittelt werden, da sie ja schon die Bedeutung der Daten nicht versteht. Gleichzeitig wäre es enorm schwierig, einer KI eine solche Diskriminierung tatsächlich nachzuweisen, da die KI ihre Entscheidungsfindung ja nicht erklären muss oder kann.
    Die Aussagen im Video implizierten (m.E.), dass der Weg zu einer "diskriminierungsfreien" KI darin gesehen wird, die KI eben nicht "einseitig" zu trainieren. Wie oben dargelegt, würde dies das Problem nicht lösen. Der einzige halbwegs sichere Weg, diese Art von Diskriminierung zu vermeiden, wäre, die betreffenden Daten von vornherein aus der KI herauszuhalten. Selbst dann kann und wird es aber dennoch zu Diskriminierungen kommen. Um auf's obige Beispiel zurückzukommen: Selbst wenn der obigen "Personauswahls-KI" das Geschlecht der Kandidaten weder im Training noch bei der Anwendung mitgeteilt wird, könnte (und würde) sie noch immer zu diskriminierenden Ergebnissen kommen, wenn sie Daten erhält, die mit der Geschlechtsvariable korrelieren - z.B. Körpergröße. Die Aussage "Größere Menschen haben im Schnitt weniger Krankheitstage als kleinere Menschen" wäre ja ebenfalls korrekt, da Frauen im Schnitt kleiner sind als Männer, und eine KI, die diese Variable erhält, würde diesen Zusammenhang in ihrem Algorithmen abbilden. Eine ohne Geschlechtsvariable, aber mit Angabe der Körpergröße trainierte KI würde daher zu gleichsam diskriminierenden Entscheidungen gelangen - die Diskriminierungen würden lediglich große Frauen etwas seltener und dafür kleine Männer etwas häufiger betreffen.

    • @oskarj7036
      @oskarj7036 5 днів тому +3

      Einfache Lösung. Es gibt schon KI, welche ihre Quellen angeben. Dann kann man es nachlesen. Wer wichtig Unternehmensentscheidungen nur von der KI treffen lässt hat eh ganz andere Probleme ;)

    • @oskarj7036
      @oskarj7036 5 днів тому +3

      Gerade mal getestet. Die KI rät mir nicht mehr Männer als Frauen einzustellen, weil sie öfter krank sind, weil das diskriminierend wäre. Außerdem weist sie verschiedene komplexe Zusammenhänge zwischen dem Geschlecht und den Krankheitstagen hin

    • @psyringe5627
      @psyringe5627 5 днів тому

      @@oskarj7036 Das ist richtig, löst aber nicht das Problem. Quellenangaben ersetzen ja keine Erklärung der Entscheidungsfindung. Es ist ja gerade eine der Besonderheiten von neuronalen Netzen, dass die tatsächliche Entscheidungsfindung praktisch nicht nachvollzogen werden kann. Welche Gewichtungen welcher Neuronen zu dem Ergebnis geführt haben, das eine KI ausgespuckt hat, können Sie vielleicht mit einer zeitaufwändigen Analyse noch ermitteln. Aber welche zugrundeliegenden Konzepte hinter diesen Gewichtungen stecken, werden Sie nicht herausfinden.
      Natürlich kann man eine KI mit einem Language Model kombinieren, welches Erklärungen auswirft, die für Laien plausibel wirken - so als würde "die KI sagen, wie sie denkt". ChatGPT kann durchaus auf Laien so wirken, solange die Texte nicht allzu lang oder komplex sein müssen. Tatsächlich referiert die KI dann aber keineswegs über ihren eigenen Entscheidungsprozess - den versteht sie nämlich überhaupt nicht und man könnte auch durchaus darüber streiten, ob eine "Entscheidung" überhaupt stattfindet, wenn lediglich ein Input über einen weitgehend deterministischen (wenn auch hochkomplexen) Algorithmus in einen Output umgewandelt wird. Die KI ist dann nur gut darauf trainiert worden, einen Text zu produzieren, der wie ein plausibler Entscheidungsprozess _klingt_ - was eine phänomenale Leistung ist, aber eben fundamental verschieden vom echten Referieren eigener Gedanken.

    • @andi8343
      @andi8343 4 дні тому

      Wo kommt jetzt das „etwas“im letzten Satz her?

    • @andi8343
      @andi8343 4 дні тому

      @@oskarj7036 ChatGPT gibt ihnen die weichgespülteste Formulierung jetziger Werte. Verstehen oder Erkennen gibt es da nicht, sie sollten @psyringe5627 s Kommentar noch einmal sorgsam lesen.

  • @Teilzeitotaku
    @Teilzeitotaku День тому

    ...die sog. Singularität ist bei der KI eigentlich etwas Anderes...es beschreibt eher denk Punkt, an dem eine "starke" bzw allgemeine KI erschaffen wird.
    damit wird eine KI bezeichnet, die nicht mehr (wie aktuelle KIs) nur spezielle Aufgaben lösen kann...sondern die quasi alle Fähigkeiten aller KIs in sich vereint...also "die eine KI für ALLES".

  • @CJO-no1
    @CJO-no1 5 днів тому +2

    Tay war eine lustige Aktion

  • @josephinmalta319
    @josephinmalta319 5 днів тому +8

    Mich würde mal ein Video interessieren, welches sich mit UA-cam, speziell mit UA-cam Deutschland befasst.
    Konkret in Punkto Zensur, was Kommentare und vor allem auch Videos betrifft. Wie ist es rechtlich vereinbar, dass ein Algorythmus/eine KI z.B. Videos demonetarisiert oder direkt komplett löscht, weil irgendetwas AGB-widriges erkannt wird, was aber nicht da ist?
    Man hört immer öfter von Creators, dass ihre Videos grundlos demonetarisiert oder gar gelöscht werden und selbst der Support nicht weiß, warum eigentlich. Heißt, die haben da nicht mal selbst Einblick. Wie kann sowas sein? Immerhin gehen den Creators dadurch Einnahmen flöten, weil ein Algorythmus/eine KI Mist baut.
    Und Kommentare werden auch immer öfter gelöscht, obwohl man nichts AGB-widriges schreibt, was ganz klar gegen die Meinungsfreiheit verstößt.

    • @so-u-l-ist7704
      @so-u-l-ist7704 5 днів тому +2

      Hier werden Begrifflichkeiten und Konzepte miteinander vermischt, die nichts miteinander zu tun habe.
      Es gilt das Hausrecht. Begriffe wie "Meinungsfreiheit" oder "Zensur" stehen in Verbindung mit den Grundrechten in Deutschland. Diese versteht man als "Abwehrrechte Privater gegenüber dem Staat". Du kannst also "nur" deine Meinungsfreiheit ggü. staatlichen Organisationen geltend machen. Zensur in diesem Sinne wird demnach "durch den Staat oder dem Staat zurechenbare Stellen" ausgeübt.
      "Eine Vorauswahl privater Stellen, ob Beiträge veröffentlicht werden oder nicht, ist daher keine Zensur im Sinne des Grundgesetzes und verfassungsrechtlich unbedenklich."

    • @TheCobraCom
      @TheCobraCom 4 дні тому +1

      @@so-u-l-ist7704 Demonetarisierung ist aber keine Vorzensur sondern ein nachträglicher Eingriff, bei dem UA-cam mit dem Kontent weiter verdient, aber die Einnahmen nicht mehr weitergibt. Mit Zensur hat das kaum etwas zu tun.
      Und mit Hausrecht ... höchstens vielleicht (Vergleich hinkt) so wie wenn ein Restaurant die Reservierung bestätigt, dich an den Tisch setzt und dann nach dem Aperitiv entscheidet, dass du zwar sitzenbleiben und voll bezahlen darfst, aber nichts mehr zu essen bekommst. Und das Ganze, weil der Sohn vom Eigentümer zufällig beim Flaschendrehen auf deinen Tisch gezeigt hat.

    • @achimklinkhammer_150
      @achimklinkhammer_150 2 дні тому

      @@so-u-l-ist7704 Das ist sicherlich korrekt, löst aber das im Kommentar beschriebene Problem bei YT nicht.

  • @Fleischkopf
    @Fleischkopf 5 днів тому +4

    wäre auch cool gewesen wenn man bildgenerierende ki firmen dazu verpflichten würde, auch detektoren für generierte werke zur verfügung zu stellen

  • @trueSconox
    @trueSconox 3 дні тому +1

    Dann schreibe ich doch gleich mal unter dieses Video, dass ich nicht möchte, dass meine Daten zum Training welcher KI auch immer genutzt werden!

  • @SilverFuchs11
    @SilverFuchs11 5 днів тому

    Danke für die Info

  • @clonepanion
    @clonepanion 5 днів тому +1

    Aber dann gilt das ja nur für die EU. Der Rest der Welt kann dann immer noch mit den Daten tun und lassen, was sie wollen. 🤔 Ich meine unsere Daten gehen ja hauptsächlich Übersee, aber wenigstens sind dann EU Firmen etwas vertrauenswürdiger.

  • @mirjagaus2097
    @mirjagaus2097 5 днів тому

    Danke für die Info, Aufklärung. Lg 😮

  • @K.Reimann
    @K.Reimann 4 дні тому +1

    Im Bezug auf die Thumbnails kann ich nur sagen.
    Sehen aus als hätte jemand erste Gehversuche mit Paint unternommen.
    Ganz Ganz gruselig...

  • @rabenklang7
    @rabenklang7 5 днів тому +1

    das heißt, wenn ich ein KI Tool nutze um von mir ein Comic-Bild zu machen wäre dies dann von jedem nutzbar ohne das ich Einspruch erheben könnte?

    • @samthesomniator
      @samthesomniator 5 днів тому

      Bist du eine eingetragene Marke?

    • @ginko-1163
      @ginko-1163 3 дні тому

      Das ist nicht dein Werk und fertig.

    • @samthesomniator
      @samthesomniator 3 дні тому +1

      @@ginko-1163 ich glaube es geht ihm eher um sowas wie Recht am eigenen Bild.

    • @rabenklang7
      @rabenklang7 День тому

      @@samthesomniator genau! :)

    • @rabenklang7
      @rabenklang7 День тому

      @@samthesomniator ich hab mich noch nicht eintragen lassen, aus Kostengründen würde ich das auch eher vermeiden.

  • @Daniel97xD.
    @Daniel97xD. 5 днів тому

    Danke für die info Herr Solmecke

  • @oskarherbst9354
    @oskarherbst9354 5 днів тому +1

    Bitte mal auf die neuen Entwicklungen bei Nordwolle / Marco Scheel eingehen!

  • @TheCobraCom
    @TheCobraCom 4 дні тому +1

    Das mit dem Filter wird richtig lustig, wenn sich ein Herr Spiegel oder Frau Stern beschweren. Oder ein Herr Brandenburg.

  • @mfsoab
    @mfsoab 5 днів тому +2

    Auch interessant, zum Thema KI-generierte Bilder, ist die Frage, wie es mit dem Copyright aussieht, wenn man die KI lediglich nutzt um eigene Werke zu vollenden/aufzuwerten.
    Ich bin auf stable diffusion und co erst richtig aufmerksam geworden, als ich von der image to image Funktion gehört habe. Wenn man ganz OK zeichnen kann, aber für mehr der Skill/das Wissen und Material fehlt ist es echt ne feine Sache sich die Kreationen durch SD und co fertigstellen/aufhübschen zu lassen. Da die Grundlage dann ja eine eigene Kreation ist, an der man prinzipiell die Rechte besitzt, könnte ich mir schon vorstellen, dass das nochmal zusätzlich schwierig wird, wenn einfach pauschal geregelt wird, dass man an KI-Kunst keine Rechte haben kann.

  • @publicvoidmain
    @publicvoidmain 2 дні тому

    Ich persönlich finde, KIs dürfen niemals für einen Menschen nachteilige Entscheidungen allein treffen. Da das aber darauf hinauslaufen wird, dass Menschen dann halt einfach sagen "KI wird schon recht haben, passt so", muss eine negative Entscheidung erst von einem Menschen geprüft und begründet werden, bevor dieser die Begründung der KI sehen kann, und nur wenn die Begründungen gleich sind, ist die negative Entscheidung auch erlaubt.

  • @hooinkyoma9704
    @hooinkyoma9704 16 годин тому

    Was mich persönlich am meisten interessiert ist die Einschränkung von KI-generierter Kunst, denn das finde ich wirklich bodenlos; das zerstört für mich das Fortbestehen von Kultur, und ich würde mir wünschen, dass es in Zukunft Wege gibt die Verwendung von AI zur Erstellung von Kunst zu unterbinden.
    Zumal ich es auf verbraucherfreundlich nicht okay finde, dass man einen Opt-Out und keinen Opt-In verwenden muss.
    Generell AI zu kommerzialisieren halte ich für keine Person für eine gute Idee

  • @michaelschnell5633
    @michaelschnell5633 5 днів тому +1

    In gedruckten Büchern kann man nicht so ohne weiteres maschinenlesbare Urheberrechts-Hinweise unterbringen.
    Außerdem sollte der Vorbehalt ja für Werke, die vor dem Inkrafttreten des Gesetzestextes veröffentlicht wurden, automatisch gelten, da man ja nicht in er Lage war, das vorauszusehen.

    • @TheCobraCom
      @TheCobraCom 4 дні тому

      Dann würden wir in der Konsequenz allerdings noch in den Höhlen sitzen.
      Ich würde mich da an der primären Richtung orientieren: wer veröffentlicht, möchte Öffentlichkeit. Sonst könnte man ja genauso alte Werke für Schwarze, Weiße, Gelbe etc. verbieten, weil der Autor nicht wusste, dass es China, USA, Europa etc. gegeben hat, als er sein Werk erstellte.
      Wer das nicht will, sollte es einfach lassen bzw. aus dem allgemeinen Raum heraushalten.

    • @michaelschnell5633
      @michaelschnell5633 4 дні тому +1

      ​@@TheCobraCom Das würde bedeuten: Gar kein Copyright. Die Folge wäre gar keine Künstler, die müssten dann ja einem bezahlten Full-Time Job nachgehen,weil ja jeder ihre Werke kostenlos beliebig verwenden dürfte.

  • @f.h.9445
    @f.h.9445 5 днів тому +2

    Ich bin gegen "KI" --- Terminator und WarGames lassen Grüßen

  • @SuperTruperHans
    @SuperTruperHans 5 днів тому +2

    Ich benutze für mein Studium die KI Von Google (um Begrifflichkeiten, Zusammenhänge oder Unterschiede mir erklären zu lassen) hab mir aber in meine Notizen nur für den Fall der Fälle schon mal markiert dass dieser Absatz von dieser KI stammt um wenn ich darauf zurückgreife entweder die Texte umformulieren oder noch mal in der Fachliteratur nachschlagen kann

    • @sapphicmystery2734
      @sapphicmystery2734 5 днів тому

      Du nutzt eine KI um dir Fakten näher zu bringen? Ist dir das nicht viel zu heikel, dass die dir da Quark erzählt, den du nicht bemerkst?

  • @veronikae6415
    @veronikae6415 4 дні тому +1

    KI ist das größte Problem unserer Zeit.

    • @Esistz.K.
      @Esistz.K. 4 дні тому

      Sicher EIN Problem...aber wir haben sehr große weitere Probleme, sowohl innen- als auch außenpolitisch 😮

  • @Monedula
    @Monedula 5 днів тому +6

    als künstlerisch schaffende person warte ich auf eine ki, die die illegale nutzung meiner werke aufspürt und automatisch an meinen anwalt leitet. 😊

    • @TheCobraCom
      @TheCobraCom 4 дні тому +1

      ... an Deine Anwalt-KI, meinst Du wohl ... solche einfach gelagerten Massenverfahren wären prädestiniert. Aber mal sehen, was die Richter-KI dazu sagt.

    • @samthesomniator
      @samthesomniator 3 дні тому

      Das ist ja genau der Grund warum Leute in Zukunft menschengemachte Werke meiden werden wie der Teufel das Weihwasser

  • @turbo2sven476
    @turbo2sven476 5 днів тому

    Bei mir gibt es keine KI/AI was für Oblast Kiew stehen tut auf dem Rechner

  • @Hegenbrecht
    @Hegenbrecht 5 днів тому +6

    Ich persönlich finde die KI Thumbnails nicht gut. Man weiß, dass es nicht echt ist. Und was nicht echt ist, kann ich weniger ernst nehmen. Andererseits sind "echte" Thumbnails auch oft stark verändert. Vielleicht sieht das die jüngere Generation auch anders. Aber auf mich wirken die KI Thumbnail irgendwie weniger seriös.

    • @psyringe5627
      @psyringe5627 5 днів тому +1

      Gleiches Gefühl hier. Ich will nicht ausschließen, dass eine gut trainierte KI mit hinreichender Kapazität auch gute Vorschaubilder erstellen kann. Aber die Bilder, die ich zuletzt gesehen habe, sahen doch sehr nach Betriebsunfällen aus (fragwürdige Komposition, technische Mängel, und generell einfach ein sehr unprofessioneller Gesamteindruck). Das ist mir bereits aufgefallen, bevor ich jetzt gehört habe, dass die Bilder jetzt von einer KI erzeugt werden, kann also auch nicht an selektiver KI-kritischer Wahrnehmung liegen. Bei den bisherigen handgefertigten Vorschaubildern war, auch wenn sie teils stark manipuliert waren, sowohl die Komposition als auch die technische Ausführung besser.

    • @Hegenbrecht
      @Hegenbrecht 5 днів тому

      @@psyringe5627 Ich hatte sofort gesehen, als WBS bei den Thumbnails auf KI umgestiegen ist. Es ist einfach zu deutlich sichtbar und wirkt zu künstlich.

    • @andi8343
      @andi8343 4 дні тому

      Ja am Ende geht es ja oft darum Zeit und Arbeit zu sparen. Wenn man dann das erste, aufgrund eines 3 wörtigen Promts erstellte, Ergebnis unbearbeitet nimmt, wird das halt unseriös, wenn man nur das Thumbnail anstarren würde. Ich gehe davon aus, dass viel mehr bereits „KI“-erstellt ist, als wir glauben. Nur sind das dann halt Profis, die das bloß als startpunkt nutzen und es gut zu maskieren wissen. Kein wbs Praktikant oder gar der Herr Solmecke am Ende eines langen Tages. Und ehrlicherweise, ihr Gefühl, etwas unseriös zu finden ist UA-cams Algorithmen auch wieder egal wenn sie dann doch drauf klicken.

  • @BerndFunken
    @BerndFunken 4 дні тому

    Ich nehme mal an das sich an den AI Act nur die Firmen halten müssen die auch in der EU tätig sind bzw. hier Filialen haben. Eine Firma die zum Beispiel in Süd Korea sitzt und 'ne englischsprachige Webseite hat muss sich daran wohl nicht halten.

  • @rayraybnog
    @rayraybnog 4 дні тому

    Herr Solmecke ist eine KI Mensch 😅😎

  • @SYCHR0N
    @SYCHR0N 5 днів тому +14

    "Nur für schwere Straftaten" ist fast wie "Nur gegen Kinderpornographie": Das ist der Rammbock, mit dem das Tor eingerissen wird, und wenn die Technik erstmal etabliert ist, kommen die Versuche für Gesetzesänderungen, die den Einsatz ausweiten sollen. Hat man bei den Mautbrücken sehr schön beobachten können, da sind ja mehrere dieser Versuche gescheitert.

    • @TheCobraCom
      @TheCobraCom 4 дні тому

      Ja, wer auf diese Begründung noch reinfällt, ist entweder jünger als 10, lebensuntüchtig naiv oder dumm wie Rattenkot. Eigentlich könnte man denjenigen unter KI-Aufsicht stellen.

    • @Schaf_Richter
      @Schaf_Richter 4 дні тому +4

      Es muss ja nur möglich und in einigen Ausnahme fällen erlaubt sein, dann schert sich kein Schwein mehr darum, wenn sich daran in anderen Fällen nicht dran gehalten wird. 😊

    • @SYCHR0N
      @SYCHR0N 4 дні тому +3

      @@Schaf_Richter Wir wissen schließlich alle: Wenn die deutsche Gesetzgebun eines kann, dann Ausnahmefälle schaffen.

    • @Schaf_Richter
      @Schaf_Richter 4 дні тому +1

      @@SYCHR0N ja wie gesagt, es braucht ja gar nicht legal sein, jemanden wegen Falschparkens zu überwachen: Wenn die Grenze nur noch ein Klick auf dem PC ist und man hat den "Täter" identifiziert, dann schert das am Ende niemanden mehr. Denn wie willst du als Falschparker nachweisen, dass die dich auf Grund von "KI" Auswertung geschnappt haben? Da hast du ja keinen Hinweis drauf.

  • @patboy3000
    @patboy3000 5 днів тому +6

    5:17 lacht sich der Herr Voss da ins Fäustchen? Ich bekomme da schon ne Wut wenn man ausgerechnet den dort sieht und dass auch noch so hämisch lachend. 😑

    • @Angriffsmacht
      @Angriffsmacht 5 днів тому +2

      Er ist ja der Experte für AI... 😂😂

    • @patboy3000
      @patboy3000 5 днів тому +1

      @@Angriffsmacht Experte fürs AI-nmachen vielleicht 😅

  • @MrYTThor
    @MrYTThor 4 дні тому

    EU nicht den Layen überlassen. IT-Bildungsferne Politiker über unsere Zukunft entscheiden lassen.... ob das so gut ist ;D

  • @Awadea82
    @Awadea82 2 дні тому

    Um mit AI verantwortungsvoll umgehen zu können, sollte der Mensch auch seine Sprache beherrschen, um Korrekturen vornehmen zu können. Von "Kunst" ganz zu schweigen, seelenlos, leblos und durchschaubar. Wenn ich manche Texte auf Webseiten lese, dann weiß ich nicht, ist das AI oder ein Schulabgänger gewesen?! Bin jetzt auch nicht perfekt aber wer Gendern für gutes Deutsch hält und Mitarbeitende schreibt anstatt den grammatikalisch korrekten Plural, kann ich nur sehr schwer weiter lesen. Erstmal übergeben, dann weiter lesen. Meistens ist dann fast ein Eimer voll, wenn der Text zu Ende ist. Oder... Fuß mit ss... Alles in Maßen genießen, anstatt in Massen.

  • @frankmohring1681
    @frankmohring1681 5 днів тому +4

    Hallo Herr Solmecke, mit dieser Videoinformation über diesem AI Mißbrauch könnte man mal einen SI-FI-Horrorfilm inszenieren. Wie Michael Chritchton,s WESTWORLD 😮

    • @rotebeete7453
      @rotebeete7453 5 днів тому +1

      Gibt es doch schon: Terminator

    • @frankmohring1681
      @frankmohring1681 5 днів тому +2

      @@rotebeete7453Nur mit dem cineastischen Unterschied, daß Michael Chrichton WESTWORLD schon 1972 herausbrachte und James Camaron TERMINATOR ein Jahrzehnt später 1984 inszenierte.

  • @absinthbad7390
    @absinthbad7390 5 днів тому

    über 2min Werbung 😢

  • @svenbosbach6431
    @svenbosbach6431 5 днів тому +3

    Hallo, Sie sagten in Ihrem Beitrag, das wenn persönliche DAten z.B. von mir in einer AI vorhanden wären, und ich nicht damit einverstanden wäre, das man diese kaum wieder aus einer AI entfernen könne. Ich bin da etwas anderer Meinung, es gibt da einen einfachen aber sehr heftigen Weg. Der Anbieter hat dann halt nicht richtig aufgepast, das ist sein unternehmerisches Risiko, dann muss er halt seine komplette AI löschen und von Anfang an neu beginnen, dann sind alle Daten weg, so muss das laufen. Wir Menschen sind immer wichtiger als KI oder eine AI und uns muss der höchste Schutz gelten.

    • @psyringe5627
      @psyringe5627 5 днів тому

      Hmm, wie würde ein "richtig aufpassen" des betreffenden Unternehmers denn Ihres Erachtens technisch realisiert werden? Wie Solmecke bereits ausgeführt hat, ist es nicht möglich, spezifische Daten aus einer KI wieder zu löschen. Das ist wie wenn ich Ihnen mein Geburtsdatum verrate - sobald diese Info in Ihrem Hirn gespeichert ist, kann ich Sie nicht dazu zwingen, sie wieder zu vergessen. Ich kann die Nachricht löschen, mit der ich die Info herausgegeben habe, aber das ändert ja nichts mehr an Ihrem Wissen. Genauso können Ihre persönlichen Daten nicht mehr aus einer KI entfernt werden - man kann ja nicht einmal herausfinden, wie die Information in den Algorithmen der KI abgespeichert wurde. Das ist nicht wie in einer Datenbank, wo man einfach mal eine Zeile löschen kann, sondern mehr wie in einem Gehirn, wo keiner weiß, wie die Informationen genau abgespeichert wurden.
      Gleichzeitig bietet die GDPR aber jedem Betroffenen die Möglichkeit, der Verwendung seiner Daten jederzeit zu widersprechen. Das bedeutet letztendlich: Was Sie fordern, ist, dass keine KI jemals personenbezogene Daten verarbeiten soll. Denn jede KI, die das macht, müsste komplett weggeworfen und von Grund auf neu trainiert werden, wenn auch nur ein Einzelner seine persönlichen Daten zurückzieht - jedes Mal. Das wäre dann so teuer (und so einfach zum Schaden des Unternehmens missbrauchbar), dass die Entwicklung einer solchen KI schlicht nicht praktikabel wäre (da wirtschaftlich zu riskant) - egal wie gut der Entwickler "aufpasst".
      Wenn das Ihre Position ist - okay, respektiere ich. Aber seien Sie sich bitte bewusst, dass unter der von Ihnen vertretenen Regel "wenn persönliche Daten nicht entfernt werden können, muss die KI eben weggeworfen werden" keine KI mehr persönliche Daten jedweder Art verwenden könnte, auch nicht in Situationen, wo es hilfreich wäre und/oder Leben retten könnte. Und da kommen Sie dann m.E. in einen Konflikt mit Ihrem Ziel, Menschen immer den höchsten Schutz zukommen zu lassen.

    • @samthesomniator
      @samthesomniator 5 днів тому +1

      Völlig unmöglich auszuschließen dass etwas angeblich legales in den Trainingssatz gerät. Wie denn auch, bei Abermilliarden von Daten.
      Von daher absurder Einwand.

  • @nico1970real
    @nico1970real 5 днів тому

    Ich nutze die KI teilweise im Grafik-Bereich. In dem Augenblick, wo ich etwas Eigenes mache oder hinzufüge ist das Endprodukt wieder urheberrechtlich mein geistiges Eigentum und muß nicht mehr als KI gekennzeichnet werden oder?

    • @O_Lee69
      @O_Lee69 5 днів тому +1

      Erklärt er ab 16:24. Wie immer bei Rechtsfragen: es kommt darauf an.... 🙂

  • @MrGTAmodsgerman
    @MrGTAmodsgerman 4 дні тому

    Ich find die KI generierten Thumbnails die jetzt seit einiger Zeit auf den Videos sind, nicht sehr gut umgesetzt. Sieht irgendwie extrem unnatürlich und unprofessionell aus. Wenn man AI trainiert kann man aber viel bessere Ergebnisse erzielen. Nun was sagt eigentlich die EU für Models die man selber trainiert? Gibt ja zum Glück auch noch Open Source tools.

  • @VampireSilence
    @VampireSilence 5 днів тому +3

    14:30 Is ja nicht unser Problem, wenn die Entwickler das so konzipiert haben. Dann sollte man halt einfach mal verantwortlich handeln und KIs so konzipieren, dass sie in der Lage sind Gesetze entsprechend einzuhalten. Ich meine WTF, wovon reden wir hier bitte? Ich kann auch nicht einfach einen autonomen Panzer programmieren, der durch Innenstädte fährt und wild um sich schießt und dann sagen "Tja, geht halt nicht mehr zu stoppen, sorry".

    • @psyringe5627
      @psyringe5627 5 днів тому +4

      Wenn die Gesetze bereits vorher bestanden und Ihnen bei der Erstellung des Produkts hätten bewusst sein müssen, klar. Bei Ihrem Panzerbeispiel ist das ja auch der Fall. Im Fall von KI herrschte teilweise halt noch der Wilde Westen - die Grenzen dessen, was man durfte und was nicht, waren eben oft nicht klar. Genau da soll der AI Act ja nun Klarheit schaffen. Die Behandlung bereits bestehender, unter unklarer Gesetzeslage initiierter Projekte ist da mitunter etwas schwierig - grundsätzlich stimme ich aber mit Ihnen überein, dass es die Verantwortung der Entwickler sein muss, ihr Projekt gesetzeskonform zu konzipieren.
      Im Fall der von Ihnen angesprochenen Regelung wird das Problem darin gesehen, dass die gesetzeskonforme Konzeption jedweder KI, die mit personenbezogenen Daten umgeht, schlichtweg nicht möglich wäre. Nach GDPR wäre ja jeder Beteiligte jederzeit berechtigt, seine Daten aus dem System zurückzuziehen. Das ist aber bei einer KI technisch unmöglich. Kurzes Beispiel zur Demonstration: Sie haben in der Schule sicher irgendwann mal über einem Mathe-Buch gesessen und (sagen wir mal) den Dreisatz gelernt. Wenn jetzt eine Regulierungsbehörde im Dreisatz ein Werk des Teufels sieht und das Mathe-Buch verbannt, ändert das überhaupt nichts daran, dass Sie den Dreisatz immer noch anwenden können und automatisch auch werden. Und selbst wenn es möglich wäre, selektiv Neuronen in Ihrem Hirn auszuradieren, könnte man Ihnen das Wissen um den Dreisatz nicht mehr nehmen - weil niemand weiß, wie genau dieses Wissen in Ihrem Hirn abgespeichert ist.
      KI funktioniert auf eine ähnliche Weise. Die Daten, mit denen eine KI trainiert wird, beeinflussen die digitalen "Neuronen" des neuronalen Netzes. Wenn das Training beendet ist, können Sie die Trainingsdaten auch wegwerfen, das ändert nichts mehr an der Funktionsweise, die die KI verinnerlicht hat. Wenn Sie Ihre KI darauf trainiert haben, auf die Eingabe "Hans" mit "Idiot" und auf "Helga" mit "Genie" zu antworten, wird diese Information zwar irgendwo in den komplexen Algorithmen der KI abgebildet - aber wenn Hans oder Helga nun der Verwendung ihres Names widersprechen, dann können Sie nicht eine einzelne Formel oder ein einziges Neuron isolieren, das diese Information gespeichert hat, und diese Information spezifisch löschen. Sie müssten im Prinzip die ganze KI wegwerfen und das Training ohne die Namen von Hans und Helga wiederholen.
      Die EU möchte hier offenbar einen Mittelweg finden, unter dem KI-Entwicklung möglich bleibt, die Persönlichkeitsrechte Betroffener aber trotzdem gewahrt werden. Deshalb kommt man wohl zu diesem etwas holprig anmutenden Vorschlag, dass die KI eben nicht weggeworfen werden muss, dass die betreffenden Daten aber nicht mehr nach außen dringen dürfen. Im obigen (kruden) Beispiel könnte man also z.B. einen Filter implementieren, der eine Ausgabe unterdrückt, wenn die KI mit dem Input "Hans" oder "Helga" konfrontiert wird. Ob das eine gute Lösung ist, kann und muss sicher diskutiert werden - aber es ist ein durchaus kniffliges Problem, das m.E. keine einfache Lösung hat.

    • @VampireSilence
      @VampireSilence 4 дні тому +2

      @@psyringe5627 Danke für diese sachliche Nachricht, sehr erfrischend, dass man so etwas auch einmal erleben darf.
      Da ich selbst KIs entwickle muss ich Ihnen aber leider in ein paar Punkten widersprechen.
      1. Bestehende KIs können korrigiert werden, um wissen zu verlernen. Bspw. über die negative-reward-method und einige Weitere.
      2. Alte Techniken mussten sich schon immer an neue Gesetze anpassen und KIs dürfen und sollten hier mehr als alles andere ausdrücklich keine Ausnahme machen, da deren Gefahrenpotenzial und die damit verbundene Verantwortung teils extrem hoch ist.
      3. Mag sein, dass es den AI Act noch nicht gab, die europäischen Werte und gesunden Menschenverstand jedoch sehr wohl. Von daher ist der AI Act wohl kaum eine "Neuigkeit" für Google und ähnlich weit verbreitete Anbieter von KI. Nur der Umstand, dass es nun gesetzlich verpflichtend ist, sich an bestimmte Dinge zu halten ist neu.

  • @NC-oe1tj
    @NC-oe1tj 5 днів тому +3

    Kann AI Emeli meine Einfahrt mit der Rüttelplatte verdichten?
    Nein?
    Dann habe ich kein Interesse.

  • @MantridJones
    @MantridJones 5 днів тому +3

    Axel Voss ist so 1 .... na ihr kennt den Rest

  • @Alepfi5599
    @Alepfi5599 5 днів тому +3

    Der AI Act scheint schon echt gut gemacht zu sein, chapeau, EU.

    • @br0sys
      @br0sys 5 днів тому +1

      @@Alepfi5599 Ich bin Deiner Meinung und glaube auch dass es im Grunde ganz gut ist. Bisschen schade ist, dass es noch so lang in der Umsetzung braucht. Denn es gibt ja auch hier schon Kommentare die behaupten wir würden bürokratisch am Fortschritt gebremst. Bei einer schnelleren Umsetzung könnte man auch schneller deregulieren falls Teile wirklich unpraktikabel sind...

    • @XMysticHerox
      @XMysticHerox 5 днів тому

      Ist ok. Hängt letztendlich stark davon ab wie es umgesetzt wird. Sowas wie "neutrale Datensätze" kann von nutzlos bis KI wird quasi illegal reichen.

    • @psyringe5627
      @psyringe5627 5 днів тому

      @@br0sys Ich halte den AI Act ebenfalls für einen guten Versuch, mögliche höchst knifflige Probleme einer neuen Technologie zu addressieren, bevor sie eskalieren. Würde mir ebenfalls eine schnellere Vorgehensweise wünschen, da (angesichts der sich rasant weiterentwickelnden Sachlage) Nachjustierungen sicher nötig sein werden. Frage mich allerdings auch, wie effektiv die Regelungen sein werden, solange sie nur Europa betreffen. (Das ist, glaube ich, die Hauptsorge der "Bremst den Fortschritt nicht"-Fraktion - dass ein als "regulierungswütig" empfundenes Europa im internationalen Forschungswettstreit abgehängt wird.) Ist aber ein enorm schwieriges Thema, zu dem ich ehrlich gesagt keine realistische globale Lösung sehe. Insofern ist der Ansatz, wenigstens in unserem eigenen Umfeld vernünftige Grenzsetzungen zu finden, sicher nicht der Schlechteste. :)

  • @Britzelll_Art
    @Britzelll_Art 5 днів тому +1

    Also auf den KI generierten Vorschaubildern, siehst du schon son bisschen wie ein psychopathischer Android aus 😬🤷‍♀️

  • @qui-gonkenobi4574
    @qui-gonkenobi4574 5 днів тому +2

    Eine KI, die die Personen nach Qualitäten einstellt, hm wie soll das mit der Frauenquote funktionieren, dh die KI müsste mit Daten gefüllt werden die das eine Geschlecht bevorzugt, was aber theoretisch illegal wäre, aber dann doch wieder nicht 🤯

    • @Naanhanyrazzu
      @Naanhanyrazzu 5 днів тому +1

      Es hat sich gezeigt, wenn Menschen wirklich nach Qualitäten eingestellt werden, fällt die Frauenquote eh weg, da das Verhältnis ganz natürlich annähernd die Hälfte erreicht.

    • @huehnerzuchthugo_3924
      @huehnerzuchthugo_3924 5 днів тому +2

      @@NaanhanyrazzuQuelle ?

    • @qui-gonkenobi4574
      @qui-gonkenobi4574 5 днів тому +1

      @@Naanhanyrazzu wie soll das funktionieren, wenn die Auswahl in den verschiedenen Bereichen nicht ausgeglichen ist, dh wenn in einem Bereich 80% oder mehr dies ein bestimmtes Geschlecht studiert, dann ist die Auswahl der Bewerber geringer und das wird ja explizit bei Quoten ignoriert. Daher kann dies doch automatisch nicht ausgeglichen werden?

  • @paradonym
    @paradonym 5 днів тому +1

    Ich habe schon Sticker machen lassen. Für Kundendaten würde es Auftragsdatenverarbeitungsverträge mit den KI Anbietern geben.
    Alles ist möglich, man muss es nur in den richtigen Rahmen quetschen.

  • @musik4life24
    @musik4life24 5 днів тому +2

    Ki = Sicherheitsrisiko❤

    • @MegaManNeo
      @MegaManNeo 5 днів тому +3

      Internet = Sicherheitsrisiko
      Menschen = Sicherheitsrisiko

    • @ginko-1163
      @ginko-1163 5 днів тому

      @@MegaManNeo Du bist schon nicht der hellste oder?

    • @MegaManNeo
      @MegaManNeo 5 днів тому +1

      @@ginko-1163 Sprach ein mir Fremder aus dem Netz, der meint, es besser zu wissen und mich direkt beleidigt.

  • @Ano-Nymos
    @Ano-Nymos 5 днів тому +2

    Es gab schon Jahre vor dem KI-Hype Unternehmen die Bewerbern einen Termin geben an dem sie daheim von einem Computer angerufen werden, und dieser stellt dann Fragen, um anhand des Inhalt der Antworten, anhand der Wortwahl (Intelligenz...), und weiterer Faktoren wie Sprachmelodie (Selbstbewusst oder nicht) oder der sprachlichen Färbung zu entscheiden ob die Person einen Termin zu einem Vorstellungsgespräch erhält.
    Ich halte nichts von Soziolekten, und wenn eine KI erkennt dass ein Mensch eine "Färbung" in der Aussprache hat, ist das die Schuld der Eltern.
    Klar, ein Migrant der im Ausland geboren ist, der hat seinen Akzent, aber wenn die Dritte oder Vierte... Generation noch eine "Färbung" hat, ist es ein Soziolekt, und deutet auf soziointellektuelle Unterschicht hin. Falls jemand meint dass wäre nicht der Fall, haben wir unterschiedliche Definitionen von Unterschicht. Cem Özdemir hat keinen Soziolekt, obwohl seine Eltern wohl direkte Einwanderer waren. Die aber Wert darauf gelegt haben, dass man es nicht hört. Also nicht wie scheinbar immer noch verbreitet bis zum evtl. Kindergarten nur Türkisch oder Arabisch mit dem Kind gesprochen wird.
    Z.B. ist für einen Ausbilder von Knastwärtern JEDER seiner Schüler soziointellektuelle Unterschicht. Das hat er öffentlich gesagt. Ist in einem Blog-Artikel von RA Udo Vetter zu lesen.
    Wenn man sich hier Videos im KFZ-Reparatur-Bereich ansieht, wirken diese Menschen nicht selten auch "schlichter". Gerne auch als "Authentisch" schöngeredet.
    In den USA gilt das auch für "African-American Vernacular English". Was nicht mal einen migrantischen Ursprung hat, sondern eine sich entwickelte Subkultur ist.
    Wenn es bei solchen Anrufen eines Computer keinen Hinweis auf die Ethnie gibt, ist es vorsichtig ausgedrückt nicht verwerflich solche Dinge nachteilig zu bewerten.
    Das gilt auch für Namen in solchen Subkulturen. Wäre ich Afroamerikaner, ich würde den eigenen Kindern sicher keine Namen wie "Shaneequa" etc. geben.
    So wie in Deutschland "Dschakeline", "Mandy", "Kevin" etc..
    Was das angeht, sind (fiktive) Vorbilder Carlton Banks, Steve oder Cleveland Brown... Auch Steve Urkel.
    Wenn ich könnte, würde ich einen Schurken aufhalten, der/die einen Virus entwickelt der die Gene der Menschen hin zu höherer Intelligenz, und wenn möglich auch weniger weiblicher und männlicher Toxizität und weg von Menschen wie in DSDS verändern kann...? Ich weiß es nicht ;-) .
    Ein Anfang wären Influenzer die statt der eigenen Gene Eizelle und Spermium von Spendern mit IQ180 beschaffen, und damit ein Kind mit IQ um 140 bekommen.
    Und das populär machen...
    P.S.:
    Sh** in, mushrooms out...

    • @Schaf_Richter
      @Schaf_Richter 4 дні тому +1

      Das Problem daran ist ja, dass es nicht transparent und damit unmittelbar willkürlich ist.
      Wenn bei dem Anruf auf Anzeichen von Soziopathie geprüft würde, hättest du z.B. auch einen Nachteil, da dein Gequatsche starke Indizien dafür hergibt. 😊

    • @Ano-Nymos
      @Ano-Nymos 4 дні тому

      ​@@Schaf_Richter
      Es ist nicht automatisch willkürlich, nur weil es nicht transparent ist.
      An welcher Stelle sollte man denn hier "Soziopathie" sehen?
      Etwa dass Influenzer statt mit den eigenen Genen öffentlich nach Spender-Keimzellen suchen sollten, um mit diesen Kinder zu bekommen?
      Erstens müssten die Influenzer nicht aktiv dazu "aufrufen" es ihnen gleich zu tun, und Zweitens hätte das absolut nichts mit "Soziopathie" oder Psychopathie zu tun.
      Ein bekannter Psychopath ist Professor Lesch. Das bestätigen Leute die ihn persönlich kannten, und der Bluescreen-Vorfall (in den Medien erwähnt) bestätigt das auch.
      Diese Influenzer könnten natürlich dazu aufrufen, aber auch das hätte nichts mit "Soziopathie" zu tun.
      Das zu tun, oder dazu aufzurufen wäre auch in keinster Weise moralisch verwerflich oder auch nur problematisch.
      Im Gegenteil, Menschen mit hohem IQ sind nachweislich glücklicher und eher linksliberal als Rechtskonservativ.
      Außerdem würden sie natürlich die Menschheit voran bringen.
      Also wo ist das Problem? Und wie kommt man da völlig ohne Bezug auf "Soziopathie"?
      Zu Bewerbungen. Wenn das so wäre, läge ich Wert darauf dass das Unternehmen von vorne herein meine Ansichten kennt.
      Denn am Ende würde ICH darüber entscheiden ob ich dort arbeiten würde. So wie es richtigerweise in der Gen. Z immer populärer wird.
      DIE stellen im Gespräch kritische Fragen, und lehnen auch Jobs ab, für die sie dann am Ende Zusagen erhalten.
      Weil SIE es sind, die entscheiden ob sie dort arbeiten. Ich bin Gen. X, aber sehe das genau so.
      In meinem Leben stand auch nie jemand "über mir", und ich spreche mit jedem Menschen gleich.
      Und Nein, ich habe noch nie ALG2 oder auch ALG1 bezogen.
      Wozu Influenzer auch aufrufen sollten, und was Unternehmen gar nicht gefallen dürfte, aber in keinster Weise "soziopathisch" ist, ist Frugalismus.
      Man spart bis man 30 ist alles was man nicht zum Überleben braucht. Also keinerlei Reisen, Ausgehen, extern Essen etc. etc. etc..
      Frugalisten rechnen für ZWEI Personen pro Woche für Lebensmittel €25. Aktuell können es auch Verteuerungsbedingt €30 sein.
      Wohnen für evtl. 25m² in Brandenburg für €180. Sogar in Köln Innenstadt im hippen Belgischen Viertel nahe der Uni sah ich mal für den Preis warm eine Wohnung.
      Alternativ Vanlife oder Elternhaus (sie können ja was an die Eltern zahlen, und helfen).
      Dann können auch Ladenschwengel und Hinternputzer mit 30 in den Ruhestand gehen.
      Bis dahin wird alles was nicht zum Überleben nötig ist gewinnbringend angelegt.
      Man muss dann mit 30 nicht kündigen, aber man KANN es. Man kann dem Chef dann auch sagen, dass man nun genug passives dauerhaftes Einkommen angespart hat, um nicht mehr arbeiten zu müssen, wenn man mit dem um z.B. mehr Geld verhandelt.
      Oder man kündigt einfach, weil man die Arbeit eh nur fürs Geld gemacht hat...
      Influenzer könnten sich mit Infostand vor Schulen stellen und dafür werben. Schön provokant, aber auch wenn die die Polizei rufen, können die nichts machen.
      Auch daran ist ja NICHTS verwerflich. Auch wenn die Unternehmen und der Staat es sicher nicht gut fänden, wenn das zur Mode würde.
      Noch weniger Arbeitnehmer, noch mehr Macht für die verbleibenden Arbeitssuchenden.
      All das ist aber relativ, da in 20-30 Jahren zur Technologischen Singularität eh nur noch evtl. 1% oder weniger in Politik, Kunst und Wissenschaft arbeiten werden...
      Gen. Beta wird vermutlich zum großen Teil nie arbeiten. Und das ist gut so. Auch in der Wissenschaft arbeiten dann nur die besten der Besten mit IQ von evtl. 170, 180...
      Sogar die Sparkasse wirbt auf einer Webseite für den Frugalismus. Auch wenn die etwas konservativer von 40 statt 30 ausgehen.
      Ray Kurzweil ist Chef-Entwickler bei Google, und sieht das genau so...

  • @medical-informatics
    @medical-informatics 5 днів тому +3

    Bei uns an der Uni frag ich die Studenten immer, warum wir nicht unseren eigenen KI Chat bauen. Bei uns am Institut sind Fachleute für KI und auch ich Entwickle KI's lol. Wir arbeiten mit Patientendaten, was das ganze Microsoft eing eh kompliziert macht. Die meisten nutzen Linux bei uns. Beschde!

    • @nico1970real
      @nico1970real 5 днів тому

      Gerade im Bereich Chat GPT gibt es doch unzählige Anbieter von verschiedenen GPTs zu verschiedenen Anwendungsbereichen. Aber alle basieren auf ChatGPT. Problematisch finde ich auch das Analysieren von Dateien (Grafik und Text)... dann sind ja die Dateien öffentlich. Wie sieht es da eigentlich mit der DSGVO aus?

    • @medical-informatics
      @medical-informatics 5 днів тому +2

      @@nico1970real im medizinischen Bereich sollte man das aber nicht nutzen, da man aus Unwissenheit Gefahr läuft Dummheiten zu machen. Das in die Ärzte oder medizinisches Personal zu bekommen ist nicht leicht. Ein Student meinte auf die Frage, warum man aus dem Krankenhaus Informationssystem keine Daten in Chat GPT laden darf: "Warum kann ich da Chat GPT nicht nutzen?".
      Weil du dann in den Knast kommst, war meine Antwort.

    • @nico1970real
      @nico1970real 5 днів тому +2

      @@medical-informatics Ja, ich sehe die KI auch mehr als personelle Ergänzung und nicht als Ersatz.

    • @medical-informatics
      @medical-informatics 5 днів тому +1

      @@nico1970real ja, seh2 ich auch so. Ich würde es im Krankenhaus aber verbieten bzw. ...nee, für alle ausser man arbeitet nicht mit Patientendaten (Softwareentwickler usw).

    • @nico1970real
      @nico1970real 5 днів тому +1

      @@medical-informatics ein gesicherte Intranet wäre nötig. Lieber die Personalstruktur verschlanken als aufblähen. Für die dauerhafte und sichere Überwachung der KI Systeme braucht man ja dann auch wieder sogenanntes Fachpersonal.
      Bei meiner Mutter im Altenheim werden die Dokumentationen immer noch handschriftlich und analog erfasst und verarbeitet. Ich hab im gleichen Heim 1990 Altenpflege gelernt und schon damals gezeigt, wie es besser und einfacher ginge... Es hat sich auch in 35 Jahren absolut nix getan. Gesundheitspflege und KI passen erst Recht nicht zusammen. Aber das ist nur meine subjektive Meinung.

  • @thomasbuhle2838
    @thomasbuhle2838 5 днів тому +1

    @3:07 Ich glaube, viele der Pornodarsteller muss man nicht "missbrauchen" zum Darstellen, die machen das schon ganz gerne von sich aus...

  • @Tim_Trash
    @Tim_Trash 4 дні тому +1

    Ich werde da nix kennzeichnen. Soll das doch jemand erstmal nachweisen.
    Wenn #Soro erstmal Online ist, dann gibt es kein halten mehr.
    Ich freue mich auf K.I.

    • @ginko-1163
      @ginko-1163 3 дні тому +1

      Trash passt gut zu dir als Name.

    • @Tim_Trash
      @Tim_Trash 3 дні тому +2

      @@ginko-1163
      Dein Name passt auch zu Dir.

  • @Kaylep1
    @Kaylep1 5 днів тому +1

    Ich glaub, in Deutschland sind wir schon IT technisch abgehängt, da ist der Zug schon abgefahren xD

  • @essc2204
    @essc2204 5 днів тому +4

    Eine neue Technologie existiert.
    EU: Lasst es soviel regulieren, dass niemand auf die Idee kommt seine Firma für die Technologie in der EU zu gründen.

    • @nico1970real
      @nico1970real 5 днів тому

      Die EU erfindet den geschriebenen Satz und der Rest der Welt die nötigen Buchstaben und Satzzeichen. Schon im Aufbau stellen wir uns selbst ein Bein und Andere freut es. Aber dieses Problem ist ja schon seit Jahrzehnten bekannt und wird immer mehr reglementiert und bürokratisiert. Die EU behindert sich beim Fortschritt selber.

  • @MichaOXS
    @MichaOXS 5 днів тому

    Wie die Videos inzwischen vollgepumpt sind mit Werbung. Früher war der Kanal echt mal gut. Direkt mal ein Daumen runter.

  • @geyerwally6566
    @geyerwally6566 5 днів тому +1

    Wo ist ein Video über Mannheim?

    • @O_Lee69
      @O_Lee69 5 днів тому +2

      Dies ist nicht die Suchleiste. Bitte den Text in die Suchleiste eingeben für Videos über Mannheim.

  • @firmaeick
    @firmaeick 4 дні тому

    Ein gewaltiger Schritt in die falsche Richtung

  • @twisted_cry
    @twisted_cry 5 днів тому +10

    Ich bin dafür das wir Ai schreiben aber Ki sagen weil Ai scheiße klingt und Ki Scheiße aussieht.

    • @Klartraumprofi
      @Klartraumprofi 5 днів тому

      Yes Sir

    • @DeeplyDivided
      @DeeplyDivided 5 днів тому +6

      Ich bin dafür, dass wir Kommasetzung nutzen.

    • @ea23333
      @ea23333 5 днів тому

      ​@@DeeplyDivided ich nicht

  • @geyerwally6566
    @geyerwally6566 5 днів тому +1

    Wo ist ein Video über die Einsetzung von Friedensrichter?

  • @geyerwally6566
    @geyerwally6566 5 днів тому +1

    Wo ist ein Video über Bad Qeynhausen?

  • @geyerwally6566
    @geyerwally6566 5 днів тому +1

    Wo ist ein Video über die Schülerin in Ripnitz-Dammgarten?

  • @chriswe8098
    @chriswe8098 5 днів тому +9

    Ich brauche das Video gar nicht schauen, man ist ganz Stolz, dass man der Erste ist, der neue Technologie reguliert! Datenschutz über Alles, über Strafverfolgung, über Gesundheit, über Fortschritt... Man wundert sich nicht ernsthaft, dass der Fortschritt um Europa, aber nicht in Europa stattfindet?
    China, USA usw. suchen zu erst nach dem Nutzen! In Europa ist man noch Stolz darauf zu erst an die Bedenken zu gehen 👍

    • @I-Love-Kaiserjager
      @I-Love-Kaiserjager 5 днів тому

      Nicht nur Datenschutz über alles! Der Gottverdammte Mammon wird ja auch dauernd über alles gestellt!!!

    • @ThePianist51
      @ThePianist51 5 днів тому

      Die Unternehmen haben offen gesagt auf ein erstes KI-Gesetz - nebst den Prinzipien, denen sich Computer Scientists sowieso verschrieben haben sollten … - gewartet. Es war schon lange abzusehen, dass irgendwo ein Gesetz mal kommt. Wo wir der Vorreiter sind, werden die anderen Länder - wie unsere Völkerstrafrechtsrechtsprechung in DE - übernehmen. Daher: Nichts Neues … Diese Kennzeichnungspflicht muss auf jeden Fall her. Das ist das bare Minimum.

    • @acerreteq703
      @acerreteq703 5 днів тому +1

      Dann wandern Sie doch in die USA aus anstatt hier rumzumeckern. Wenn Sie dann dort wegen eines KI-Modells mit antrainiertem Bias verhaften werden und von einem KI-Gericht zu x-Jahren Gefängnis verurteilt werden, dann, ja dann fangen auch SIE an ihr Gehirn zu benutzen.

    • @CruzRobin
      @CruzRobin 5 днів тому +10

      Tja, vielleicht würde es sich doch lohnen, das Video zu gucken. 🥴

    • @psyringe5627
      @psyringe5627 5 днів тому +1

      Über den Nutzen neuer Technologien machen sich gewinnstrebende Unternehmer genug Gedanken, da würde ich mir keine Sorgen machen. Sorgen sollte man sich in der Tat eher darüber machen, ob und wann Menschen unter den Auswüchsen einer neuen Technologie zu leiden haben, denn daran denken Unternehmen eher weniger. Den "Radium-Girls", die in den Zwanzigern in den von Ihnen so gepriesenen USA an Strahlenvergiftung starben, nachdem ihre Arbeitgeber empfohlen hatten, sie könnten die leuchtende Substanz, die sie auf Uhrblätter pinselten, durchaus auch zur Verschönerung ihrer Fingernägel, Augenbrauen und Zähne einsetzen, hätte eine bessere Regulierung der damals neuen Technologie wahrscheinlich das Leben gerettet. Medikamente würden Sie auch nicht ohne solide wissenschaftliche Tests auf dem Markt sehen wollen, oder?

  • @maxebeen14
    @maxebeen14 5 днів тому +1

    Ich finde es krass, dass ich mir von jeder Frau von der auch nur ein Foto habe, Nacktbilder generieren lassen kann.
    Da sag noch mal einer KI sei was Schlechtes.