Das Video hat die ID I4iub7qvJ8c (z.B. aufrufbar durch youtu(dot)be/), an Stelle 8:42. Hier eine Kurzerklärung: Der blaue Screen wird anhand seiner Farbe ausgewählt, die Auswahl invertiert und dadurch hat man Cedric und die Gegenstände (Globus, Regal usw.) in einer zweiten Ebene. Dadurch sind zwei Ebenen vorhanden: Der blaue Hintergrund und der Vordergrund mit Cedric und den Gegenständen. Zwischen die beiden Ebenen kann man so die Animationen einfügen, die sich dann hinter Cedric und den Objekten, aber noch vor dem blauen Screen aufhalten, sodass sich nichts überschneidet. Tada. Aber gerne trotzdem noch das ganze Video anschauen, ich habe nur das Gröbste beschrieben. Außerdem geht es da um Greenscreens bei Filmproduktionen und deren moderne Alternative.
Vielen Dank für dieses spannende, super aufbereitete und einfach erklärte Video. Auch Danke für die ruhige und strukturierte Präsentation an Cedric und das gesamte Team. Ich bin Fan. :)
Nur, dass das ein Missverständnis ist. Die Precogs in MR sind Wahrsager-Telepathen, die ungefähr so mächtig sind, wie Doctor X von den Xmen, während er im Cerebro sitzt und die Readonly Einstellung aktiviert hat. Das hat halt nix mit CRAA zu tun. Ein Algorithmus ist halt keine magische Zauberformel, sondern eigentlich nur eine besonders komplexe Excelltabelle, die ihre Füllung automatisiert hat. Wir Menschen missverstehen dann diese Automation - da das System ja scheinbar von alleine, ohne menschliches Zutun einen Vorgang erledigt - als eine Art Protoleben. Aber wenn wir beispielsweise mit einer Sprach-KI reden, die in der Lage ist für uns einen Friseurtermin zu vereinbaren, dann ist diese zwar in der Lage uns sinngemäße Antworten zu geben, aber eigentlich ist es nicht viel mehr als ein Converter, der den Input als Paket verarbeitet, in ein anderes Paket übersetzt und als Paket wieder an uns herausgibt. Was in dem Paket drin ist, welche Information wir damit genau übertragen wollen und was das Ganze überhaupt soll, davon hat der Algorithmus keine Ahnung. Tatsächlich fehlen uns die Vokabeln, um zu beschreiben, wie ein ML-Algorithmus arbeitet. Wir verwenden zwar menschliche Begriffe wie "Verständnis", "Erinnerung" uÄ, aber eigentlich sind das falsche Begriffe. Ein Excell Sheet denkt nicht, ein Excell Sheet erinnert nicht, ein Excell Sheet weiß nicht, ein Excell Shet erfährt nicht, ein Excell Sheet ist ein Werkzeug, kein Lebewesen... und so wie ML-Algorithmen funktionieren werden sie auch niemals mehr sein. Egal wieviele Interationen dieser Code durch"lebt", aus einem Excell Sheet wird kein denkende Individuum werden. Da das aber fast alle Menschen missverstehen, die kaum oder keine Ahnung haben, wie solche System überhaupt funktionieren, besteht das Missverständnis, dass CRAAs funktionieren können. Es sind keine Precogs, sondern nur simple Excelltabellen, die andere Excelltabellen abgleichen und daraus Schlüsse ziehen, die sie selbst nicht versteht. Aber wie du vielleicht daran merkst, dass auch ich bei solchen Systemen mit menschlichen Begriffen wie "Selbst", "Lernen", "Verständnis" jongliere, fehlen uns derzeit noch die richtigen Termina, das präzise zu beschreiben, was solche Systeme tatsächlich leisten und was sie nicht leisten.
@@philippschmitz1787 Das ist alles leider nur zu wahr. Auch die Kollegin im Video schlampt da bei der Begrifflichkeit und scheint darauf hinzuarbeiten, in einem perfekten "Chinesischen Zimmer" mehr zu sehen und zu erhoffen als tumbe maschinelle Automation.
@@NICEFINENEWROBOT Naja, sie lächelt ja ein wenig, als sie dabei quasi erwischt, wie sie diese Begriffe verwendet. Sie versucht nicht mehr zu sehen, ich denke eher, dass das Gegenteil der Fall ist. Aufgrund der unpräzisen Termina, kultivieren wir einen Bias, der uns denken lässt, KIs seien mehr als sie sind. Das fiese an Biasses ist, das niemand sich vor ihnen immunisieren kann. Sie sind immer da. Man kann sich ihnen lediglich bewusst werden und im Nachhinein unser Denken analysieren und über unsere Beschränktheit lachen, wenn es uns mal wieder passiert ist. Darüber nachzudenken, wie man einen Algorithmus dazu bringen kann, Zusammenhänge zu analysieren hat nichts damit zu tun, das chinesische Zimmer auszublenden. Es ist eher die Frage, wie die Flügel für ein Flugzeug aussehen müssen, damit es fliegt. Achtung: Wenn man sagt, dass man einem Algorithmus beibringen will, Zusammenhänge zu verstehen, dann sind zwei Worte missverständlich für den Laien: Beibringen und Verständnis. Wir erklären dem nix, wie wir das mit einem Kind tun würden, auch wenn es ein paar Parallelen gibt, sondern füttern die Tabelle mit Werten bzw. verändern die Einstellungen oder schreiben den Code um, damit er ein wenig anders über die Daten drüberiteriert. Aber das verstehen ja noch viel weniger, darum sagt man verkürzt: "Ich lerne eine KI an!" oder "Meine KI ist im Stande zu lernen!". Das ist zwar falsch oder zumindest unpräzise, aber für den Ottonormalidioten da draußen, wenigstens ansatzweise nachvollziehbar, was man da überhaupt tut. Für die allermeisten Menschen sind Programmierer Cyberpunkmagier und Code eine okkulte Schrift, mit der man Dämonen beschwören kann (überspitzt formuliert), aber Code ist reine Logik, denn Logik ist die einzige Sprache, die Maschinen verstehen. Jedem der die oben genannte vorurteilige Meinung von Programmcodes hat, empfehle ich, mal ein x-beliebiges Coding-Einsteiger-Tutorial anzuschauen. UA-cam ist voll davon, und die meisten davon sind irre gut... Brackeys, Jason Weimann und Programmieren-Starten seien hier unter anderem genannt.
@@philippschmitz1787 Wie, ich kann mit Code keine Dämonen beschwören? Na so'n Sch…, wozu habe ich dann Programmieren gelernt??? ;-) (Aber so ein bisschen "zaubern" geht schon, zumindestens sieht es für die Laien so aus. ;-)) Sehr gut geschriebene Antworten, finde ich. Das mit den "Ottonormalidioten" hätte ich mir allerdings verkniffen (nur gedacht).
@@c.augustin Danke... aber immer daran denken, wir sind alle nur Idioten. Manche mehr manche weniger, aber spätestens seit Sokrates müssten wir eigentlich wissen, dass wir nicht wissen. Ansonsten bringt es Idioten immer total auf die Palme, wenn man sie so nennt... und nichts macht mehr Spaß, als Leute auf die Palme zu bringen. ;)
Eine echte AGI wird meiner Einschätzung nach ein Meta-programm sein, dass in der Lage ist ein Netzwerk an Modellen aufbauen zu können. Im Prinzip, so schätze ich, funktionieren Gehirne genauso. Eine Ansammlung von Unmengen an kleinen "Modellen" die am Ende einen binären Wert aufgrund eines Inputs herausgeben. Inputs können dabei dann wiederrum durch andere Modelle miteinander verknüpft werden. So hat man am Ende eine riesiges Netzwerk an Spezialisten die alle immer nur auf sehr spezifische Muster trainiert sind.
Super cooles Video! Das Thema ist allgemein sehr interessant und ihr bereitete das, finde ich, sowohl visuell als auch inhaltlich sehr gut und vor allem verständlich auf. Ich freue mich jedes Mal, wenn ein neues Video online kommt!
KI ist weder fair, noch unfair. Sie ist im Prinzip nur eine ziemlich lange Rechnung die alte Daten in Betracht zieht, um neue Daten zu evaluieren. Wenn wir ihr "unfaire" alte Daten geben ist die KI unfair, wenn wir ihr "faire" alte Daten geben ist sie fair. Wie ein Stift, je nach Benutzer kann er das nächste Meisterwerk, oder ein abscheuliches Etwas zeichnen.
Mit anderen Worten: Eine KI (künstliche „Intelligenz“) ist nicht wirklich intelligenter als ein Stift. Wie intelligent ist ein Stift? Gar nicht. Was ist eine künstliche „Intelligenz“ ohne Intelligenz? Das Problem ist weniger der Unterschied zwischen fairen und unfairen Daten, sondern eher das mangelnde Verständnis für die Unterscheidung zwischen relevanten und irrelevanten Teilen der Daten.
@@Capdo97 Womit zu beweisen wäre, dass die Realität unfair war. Es könnte ja genauso gut sein, dass gewisse Bevölkerungsgruppen sich durchschnittlich schlechter verhalten haben und es also Eigenverschulden ist.
@@raphaell4808 Dann kämme die Frage auf, ist es Sinnvoll, Straftäter heute härter zu bestrafen, weil sie aus einer anderen Gegend/Land etc. kommen nur weil etwaige Vorfahren härter bestraft wurden? Meiner Meinung sollten Straftaten und die damit verbundenen Strafen von früher nicht ins Gewicht fallen wie hart eine Person Heute bestraft wird.
Sehr cooler Beitrag! Echt faszinierend ist Gradient Weighted Class Activation Mapping, wo visualisiert wird wie ein Computer Vision Modell "sieht" und welche Features/Pixel für diese Klassifikation beigetragen haben. Kann ich nur empfehlen :)
Cedric und das Team, haben wieder ein super leicht verständliches Video rausgehauen! Vielen Dank, an das Team! Nur für den Algorithmus;-), Annika, kommt unglaublich sympathisch rüber! Ps. Die Filmfortsetzung, Schweine im Weltall, mit dem Titel, Kühe im Weltall, würde einen Algorithmus also verwirren ;-)
Das Problem von schwankenden Daten kann übrigens auch durch “data augmentation” adressiert werden. Das ist ein Verfahren des Pre-Processing in Data Science. Einfaches Beispiel: Ein Bild wird leicht gedreht/unschärfer gemacht/gezoomt etc., wodurch “neue” Bilder entstehen und als Datengrundlage dienen können.
Wirklich eine tolle Videoreihe und danke an Dr. Buchholz für die super einfachen Erklärungen :) Filmtechnisch wäre denke ich auch I Robot oder Eagle Eye sehr interessant...immerhin geht's dort auch darum, dass sich KI weiter entwickelt :D
Ich wäre absolut Deiner Meinung, wenn ich nicht die Konferenz "Globale Krise. das betrifft bereits jeden" gesehen hätte. Dort gibt es solche Beispiele, die es bereits jetzt gibt und die uns wirklich ersetzen können. Wirklich heftig!
KI setzt gut gefüllte Wissensdatenbanken voraus. Dann wären ultraschnell parallel arbeitende Suchalgorithmen und Interpretierer notwendig, um Entscheidungen in Echtzeit zu fällen.
@@user-gd5tr7gw7s ich habe auch nicht gesagt man solle nichts tun sondern man darf von der KI keinen wunder oder gar ein Wunderwerk erwarten! schritt für schritt!
Ich finde, die Korrelation von Schwarzen und Kriminalität ist ein gutes Beispiel für das was du im Video sagst. Es ist ja tatsächlich so, dass schwarze Menschen in den USA weit mehr Gewaltverbrechen begehen als jede andere Ethnie. Rassisten verwechseln dann eben ganz schnell Korrelation und Kausalität und implizieren daraus, dass das Gewaltpotenzial an der Hautfarbe und damit in den Genen liegt und setzen damit den Wert eines Menschen fest. Hier wird aber eben die dritte Variable -die Armut - außer Acht gelassen. Es sind nämlich auch weit mehr schwarze Menschen arm in den USA und es gibt ebenfalls eine starke Korrelation zwischen Gewaltverbrechen und den finanziellen Verhältnissen der Täter. Das ist wiederum auf die Sklavengeschichte und noch den Rassismus danach zurückzuführen. Hier haben wir den eigentlichen kausalen Zusammenhang: Die USA ist komplett kaputt :D
Richtig. Es ist auch ein gutes Beispiel dafür das Begriffe wie "rassistische KI" oder dergleichen unangebracht und inhaltlich falsch sind. Wenn man eine KI mit unvollständigen Daten füttert, dann findet ein solche Algorithmus eben solche falschen Zusammenhänge, weil sie sich einfach schlicht durch die Lernalgorithmen ergeben. Eine KI entscheidet anhand der Daten und nicht, weil die KI spontan "Rassismus" für sich entdeckt hat. "Rassistisch sein" ist eine rein menschliche Eigenschaft, die man nicht auf Algorithmen übertragen kann, die keine Moral, kein Bewusstsein und keine Chance haben zwischen "richtig" und "falsch" zu unterscheiden. Nichtdesdotrotz muss man bei so etwas sehr vorsichtig sein und solche Fehler als solche erkennen und beheben bzw. solche Algorithmen nicht als Entscheidungsgrundlage verwenden, wenn man nicht der Lage ist, die technischen Probleme in den Griff zu bekommen.
Sibyl System ist also schon Realität, das ist ultra gruselig. Ich hoffe, die Menschen verstehen, dass Neugier gut ist, aber man muss nicht allem Nachgeben und automatisieren.
Was mich mal interessieren würde ist wie sehr KI sich selbst beeinflusst. Angenommen eine KI hilft auf Basis von bestimmten Daten bei der Beschaffung von neuem Personal. Werden dann die Angestellten, die von der KI ausgewählt wurden, ebenfalls als zusätzliche Trainingsdaten verwendet? Das würde bedeuten, dass nach einer gewissen Zeit nur noch extrem spezifische Menschen ausgewählt werden würden.. oder nicht?
Es ist jetzt 1 Jahr seit diesem Video vergangen. Fun Fact: ich habe gerade das Beispiel mit der nassen Straße aus dem Intro mit ChatpGPT durchgespielt. Die KI hat tadellos assoziiert, vorhergesagt und eine Hypothese aufgestellt. Crazy times.
Sehr gutes Video, schön erklärt!😃 Unabhängige Faktoren können übrigens schon eigenständig gelernt werden (Disentangled Variational Auto Encoder, kurz DVAE), wobei dann auch automatisch zusammenhängenden Faktoren zusammengefasst werden. Das Modell mit den drei Stufen finde ich hier nicht so passend, weil KIs schon Vorhersagen treffen (zB für Aktienkurse) und hypothetische Szenarien beurteilen können (zB eine Kuh auf dem Mond erkennen 😉). Eher würde ich sagen, dass wie angesprochen Transfer und Verallgemeinerung entscheidende Baustellen sind. Danke für diese tolle Kooperation!
Ich finde das Thema extrem spannend. Könnte es vieleicht sein das das Problem der KI der Verstehens darin besteht das eingegebene Bilder und oder Objekte immer nur 2 dimensional gesehen und gelesen werden? Vieleicht sollte man versuchen KI mit 3 dimensionalen Objekten zu füttern.
Skynet wohl nicht, aber Interessengruppen, die uns mit KI gefundene Entscheidungen überstülpen und dann nicht verhindern können, dass das in die Hose geht.
@@DoktorWhatson Ganz genau. Deswegen halte ich es auch für so gefährlich, sich blind auf das zu verlassen, was der Algorythmus da ausspuckt. Ich sehe Roboter und KI als Werkzeug. Und wie bei jedem Werkzeug kommt es auf den an, der es führt. "Vertraue keinem Ding, von dem du nichtsehen kannst, wo es sein Gehirn hat." - Arthur Weasley
da muss ich an dieses beispiel denken wo man einer ki hunde und huskies gezeigt hat und sie sich nicht den hund/huskie zur unterscheidung genommen hat, sodnern den hintergrund welcher bei hunden grün, braun etc. war, und bei den huskies weiß, wenn dann ein hund im schnee zb. war dachte die ki es ist ein huskie
Ich weiß das ist am Thema vorbei, aber ich muss einmal positiv hervorheben wie viel Sadrik abgenommen hat, wenn man sich mal den Einspieler bei 3:05 ansieht! Ist mir gar nicht so wirklich aufgefallen bis da mal der direkte Vergleich gegeben war
Darum tuhe ich mich schwer damit diese art als KI zu bezeichnen da es eigentlich nur Algorythmen sind die von imput des Programmierers abhängig sind. Aber diese werden immer KI ähnlicher.
Ich denke es werden noch sehr viele Jahre vergehen bis eine KI wirklich autark lernen kann. Zur Zeit sind alle KI-Programme für ein bestimmtes "Verständnis" hin trainiert worden. In anderen Worten, diese trainierten Programme sind Inselbegabt. Um alleine das visuelle "Verständnis" eines Apfels zu haben, muesste man viele Inselbegabte Programme zu einer Super-KI zusammenschalten.
Ja, denn es ist ja gemäß der Einteilung im Video zu Stufe 1 Assoziationen fähig. Der Akinator ist vor allem deswegen ziemlich beeindruckend, weil er techisch recht primitiv ist, aber dennoch erstaunlich präzise Raten kann. Dies wurde durch die vielen hundertausenden Interaktionen mit den Spielern des Akinators erreicht. Zudem: Laut Wikipedia wurde der Akinator mit Hilfe von KI-Algorithmen entwickelt, das sollte die Frage also mit einem klaren "Ja" beantworten :)
[05:20] Beim Thema Criminal Risk Assessment Algorithms war mein erster Gedanke halt nicht Entscheidungen aufgrund von ein paar wenigen Zahlen zu treffen, die ein Computer ausspuckt. Aber so einfach ist es dann halt leider doch nicht. Oft sind Datensätze zu Groß und zu unübersichtlich. Aber wir wollen trotzdem fundierte Entscheidungen treffen. Also müssen die unübersichtlichen Daten auf das wesentliche reduziert werden.Und dann stehen wir wieder vor dem Ausgangsproblem: wir treffen Entscheidungen aufgrund von ein paar wenigen Zahlen.
Ich bin der Meinung, dass Intelligenz einfach nur die Neuverknüpfung von alten Erfahrungen ist, dadurch würde ich bei deiner Frage, ob Ki nicht nur eine Intelligenz simuliert, da sie nur den Input generalisiert wieder geben (was sie aus meiner Perspektive machen), sagen, dass die Menschen doch nur das Selbe in besser machen.
Also mich würde mal interessieren was passiert, wenn man ein solches neuronales Netz aus analogen Bauteilen wie Operationsverstärker, Kondensatoren, Spulen, transistor (als Verstärker nicht als Schalter), Dioden und ko aufbaut, dann müssten doch diese digitalen Ungenauigkeiten wegfallen oder es besser funktionieren, also wenn man es dann auch analog "füttert". Vielleicht habt ihr dazu auch Infos ob es solche Projekte gibt, wie sie im vergleich sind etc.
5:10 kennt ihr das Buch QualityLand? Der dritte Weltkrieg wurde dort ausgelöst, weil eine KI eine Kuh nicht erkannt hat... wollte ich nur angemerkt haben.
Deshalb mußte es eigentlich auch VI und nicht KI heißen. Den Unterschied gab es auch in dem Spiel Mass Effect. KI ist das wo wir vielleicht hin wollen.
Gabs nicht mal so ne KI die Bewerber für Jobs beurteilen sollte und automatisch alle Frauen rausgefiltert hat weil sie statistisch seltener in den Führungsetagen landen?
Wenn eine ki von alleine lernen kann. Und sich dadurch weiter entwickelt. Hat die dann ein Bewusstsein? Ich meine als Kind fängt man auch an zu lernen. Man sieht Bilder verarbeitet sie und gewinnt dadurch Informationen. Dann haben wir ein Bewusstsein.
Nein. Menschen haben eine hochkomplexe "Hardware" wenn man so will, die das Ergebnis von Millionen Jahre Evolutionen ist und somit kann man diese komplexe Struktur nicht einfach nachbilden. Selbst die größten und komplexesten neuronalen Netze die es heute gibt, sind im Vergleich zum Aufbau des menschlichen Gehirns hochgradig primitiv. Das menschliche Bewusstsein entsteht durch eine anzahl komplexer Gehirnareale die nicht nur massiv parallelisiert sind sondern auch hochspezialisiert. Erst durch dieses komplexes Zusammenwirken entsteht "Bewusstsein". Würde man z.B. nur einen Teil der Großhirnrinde des Menschen betrachten, würde es sich zwar um ein sehr komplexes Gewebe aus Neuronen handeln, aber es wäre für sich genommen noch lange kein Bewusstsein. Wenn man ein Stück des Gehirns eines Menschen entfernt, dann bleibt sein Bewusstsein zum Großteil intakt. Deine Persönlichkeit sitzt also nicht in einem spezielen Areal. Sie ist die Summe aller Zusammenwirkungen deines Gehirns. Künstliche neuronale Netze sind dagegen ultraprimitv, noch deutlich primitiver als kleine Lebewesen(z.B. eine Ratte) und können daher nicht einfach so ein Bewusstsein entwickeln. Auch nicht wenn man so ein Netz mit Terabytes an Daten füttern würde und das über 10-20 Jahre. Daraus wird kein Bewusstsein, weil künstliche neuronale Netze dafür nicht genug Verbindungen eingehen können, auch keine Plastizität aufweisen(also die Fähigkeit die Architektur zu verändern) und ihnen wie gesagt spezialisierte Gebilde fehlen, die auch nur im Ansatz menschliches Denken nachahmen könnten. Zumindest nicht auf diesem Weg.
Also nur mal vorne weg: Sich mit der Frage "Was wäre passiert, wenn?" auseinander zusetzen, ist eine Sache der menschlichen Natur... Aber eigentlich hat man ein Ergebnis aus einer Situation, ständig und fortlaufend. Wenn wir logisch an die Sache gehen, würde sich eine "was wäre passiert, wenn..." Frage gar nicht ergeben. Anders sieht es bei "Was wäre, wenn" oder "try and error" Fragen aus, bei denen man den Anfangszustand beliebig oft unter anderen Bedingungen, wiederholen kann. Natürlich nur solange, wie man nicht die Exstistenz eines ganzen Planeten aufs Spiel setzt ^^
Ich weiß auch nicht, was ein Apfel ist. Welche Molekül-Varianten in verschiedenen Sorten in welchen Maßen vorhanden sind und zu welchem Zweck. Schon allein der Anschein, wir wüssten mehr was ein Apfel ist, verwundert mich. Wir haben genauso eine Representation eines Apfels, wie ein Computer. Und wenn wir einen Apfel noch nicht von Innen gesehen, noch jemals Früchte/Gemüse gesehen hätten, wie sollten wir wissen können, wie der Apfel Innen aussieht. Das eine KI, die die Pixel analysiert nicht um die Ecke schauen kann, ist klar.
3:05 Meinst du Korrelation oder Koinzidenz? Eine Bilderkennung die Kühe bei falschem Hintergrund nicht erkennt, ist eigentlich nicht mehr zeitgemäß. Moderne Algorithmen (CNNs) erkennen die Features einer Kuh, egal in welchem Kontext. Es sollte aber auch etwas Kuhähnliches zu sehen sein, und keine Mutante. Die Qualität der Trainingsdaten ist natürlich entscheidend. Wenn man eine KI mit Vorurteilen trainiert, kommen auch Vorurteile heraus. Das hat aber mal nix mit dem Algorithmus zu tun, sondern "rein menschlich" mit der Auswahl der Daten. KI ist ja nur ein Werkzeug. 6:00 Über deinen Gefängnisaufenthalt entscheidet auch das psychologische Gutachten. Und psychol. Gutachten dürfen sogar von Zahnärzten gemacht werden. Jeder der eine medizinische Grundausbildung hat, ist berechtigt, psychologische Gutachten für Gerichtsprozesse zu erstellen. Nur anhand von Angaben in Dokumenten, ohne den Angeklagten jemals gesehen zu haben. Was einer "starken KI", die eigenständig schlussfolgern kann, am nächsten kommt, sind wohl "Graph Neuronale Netze (GNNs)". Da liegt die Hauptinformation nicht in einer mehrdimensionalen Hyperfläche, sondern in einem strukturierten Graphen. Aber das Hauptproblem ist, dass mit jeder neuen Eingabe, neuen Sensor- oder Sinneseindrücken, ... ein KI-Modell neu geupdatet/trainiert werden muss. Wir Menschen können unser Weltbild schneller aktualisieren, wenn neue Infos kommen. Einige zumindest.
Ach ja, wer in das Thema einsteigen möchte. Hier gibt's einen guten Kurs zum Thema "Graph Neural Networks": ua-cam.com/play/PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn.html Kann ich empfehlen. Hab ich mir schon komplett reingezogen ;-)
Zu den Auswahldaten bei der Erkennung einer Kuh. Das stimmt nur bedingt. Ein Mensch, der als Messlatte für den Begriff Intelligenz steht, könnte auch von klein auf Kühe nur auf Wiesen zu sehen bekommen und wäre dennoch in der Lage eine Kuh am Strand als Kuh zu erkennen.
@@felistrix7163 Ich behaupte mal, das gilt auch für CNNs, sofern diese die richtigen features gelernt haben. Sicher, es gibt gute und schlechte KIs, aber ich sehe kein grundsätzliches Problem darin, warum ein Künstliches Neuronales Netz das nicht auch können soll.
Ich stimme deinen Ausführungen zu. Leider ist das Video etwas einseitig. KI ist grundsätzlich neutral und nur so gut, wie sie erstellt wurde. Leider wird hier von KI menschliches Denken gefordert und gejammert das es fehl schlägt. Das würde ja auch bedeuten, dass das menschliche Denken nachgebildet werden muss. So etwas ist meines Wissens nach nicht angestrebt. Z. B. Zerlegung eines Bildes mit dem Auge. Trotzdem ein Anfang.
Es wundert mich doch immer wieder .. die Leute hören Intelligenz & denken ernsthaft das es so ist. Ich hatte erst letztens dieses Gespräch mit meinem Nachbarn der zu Alexa Bitte & Danke sagt, nachfragt wie es "ihr" geht etc. weil nach seinem Verständnis, muss das ja schon Intelligent sein sonst könnte ja nicht vernünftig geantwortet werden. 🙄🤦🏻♂️ Es ist doch einfach nur dumm .. genauso wie die Menschen welche der Meinung sind ihre Hunde oder Katzen würden sie verstehen. 🙄
Das schreitet ja immens voran! Aber die soziale Gragilität, die sich in den letzten Monaten überall gezeigt hat, ist ja nicht aus einem Mangel künstlicher, sondern aus Mangel an natürlicher Intelligenz erwachsen. Ob KI hier die Prothese ist, die nach Evolutionsgesätzen zum Rückgang der sie aufbessernden Fähigkeiten führt? Das wäre eine nächste Frage für Deinen nächsten Beitrag. Stimmt es, daß KI zutiefst misanthrop motiviert ist? Ist aus einem Lebensüberdruß heraus KI wünschbar geworden? Fragen sollte es jetzt hageln!
Ich finde das Video etwas zu populärwissenschaftlich. Der Kern von maschine learning ist Gradient Descent und das sollte wenigstens mal angesprochen werden.
Es stimmt nicht, dass Menschen auf "Ebene 3" agieren würden. Hypothesen sind Wissenschaftliche Konstrukte. Wissenschaft ist aber nur ein kleiner Teil des Denkens. Außerdem sind Hypothesen keine absoluten Wahrheiten, sondern eben nur Vermutungen, die gerade so gut eine Realität beschreiben, dass man sie benutzen kann, um damit gut genug vorhersagen um Funktionalitäten zu machen. Wir assoziieren also auch ganz häufig, ohne direkte Hypothesen aufzustellen
Seitdem ich weiß wie der Hintergrund funktioniert, fasziniert er mich jedes Mal mehr 😂💥
Wie funktioniert der
Das Video hat die ID I4iub7qvJ8c (z.B. aufrufbar durch youtu(dot)be/), an Stelle 8:42.
Hier eine Kurzerklärung: Der blaue Screen wird anhand seiner Farbe ausgewählt, die Auswahl invertiert und dadurch hat man Cedric und die Gegenstände (Globus, Regal usw.) in einer zweiten Ebene. Dadurch sind zwei Ebenen vorhanden: Der blaue Hintergrund und der Vordergrund mit Cedric und den Gegenständen.
Zwischen die beiden Ebenen kann man so die Animationen einfügen, die sich dann hinter Cedric und den Objekten, aber noch vor dem blauen Screen aufhalten, sodass sich nichts überschneidet. Tada.
Aber gerne trotzdem noch das ganze Video anschauen, ich habe nur das Gröbste beschrieben. Außerdem geht es da um Greenscreens bei Filmproduktionen und deren moderne Alternative.
same 😅
Ja das stimmt 😂
besteht das ganze Geheimnis nicht bloß auf Scripte und Informationen? If... else...also...go to bla?
Deine Videos sind wirklich Klasse. Danke für den Beitrag!
Alles nur für dich, Kim :)
Ach übrigens; weist du eigentlich wie sein Bruder heißt?
Vielen Dank für dieses spannende, super aufbereitete und einfach erklärte Video. Auch Danke für die ruhige und strukturierte Präsentation an Cedric und das gesamte Team. Ich bin Fan. :)
Deine Videos sind so interessant, danke dafür :)
Hey, hatte deinen Kanal zuletzt etwas aus den Augen verloren.. Respekt für die Körper Transformation, siehst jetzt einfach richtig sportlich aus
Pah, alles KI und CGI.
?:o) Bin heut ganz schön frech.
War als Kind immer sehr an Technischen dingen wie zb. KI interessiert.
Aber mittlerweiler habe ich die Hoffnung aufgegeben
Mich auch. Jetzt will ich es nicht mehr, denn es kann leicht missbraucht werden zur absoluten Kontrolle und totalitären Systemen.
Diese "Criminal Risk Assessment Algorithms" erinnern mich i.wie an den Film Minority Report ^^
Nur, dass das ein Missverständnis ist. Die Precogs in MR sind Wahrsager-Telepathen, die ungefähr so mächtig sind, wie Doctor X von den Xmen, während er im Cerebro sitzt und die Readonly Einstellung aktiviert hat.
Das hat halt nix mit CRAA zu tun. Ein Algorithmus ist halt keine magische Zauberformel, sondern eigentlich nur eine besonders komplexe Excelltabelle, die ihre Füllung automatisiert hat. Wir Menschen missverstehen dann diese Automation - da das System ja scheinbar von alleine, ohne menschliches Zutun einen Vorgang erledigt - als eine Art Protoleben. Aber wenn wir beispielsweise mit einer Sprach-KI reden, die in der Lage ist für uns einen Friseurtermin zu vereinbaren, dann ist diese zwar in der Lage uns sinngemäße Antworten zu geben, aber eigentlich ist es nicht viel mehr als ein Converter, der den Input als Paket verarbeitet, in ein anderes Paket übersetzt und als Paket wieder an uns herausgibt. Was in dem Paket drin ist, welche Information wir damit genau übertragen wollen und was das Ganze überhaupt soll, davon hat der Algorithmus keine Ahnung. Tatsächlich fehlen uns die Vokabeln, um zu beschreiben, wie ein ML-Algorithmus arbeitet. Wir verwenden zwar menschliche Begriffe wie "Verständnis", "Erinnerung" uÄ, aber eigentlich sind das falsche Begriffe. Ein Excell Sheet denkt nicht, ein Excell Sheet erinnert nicht, ein Excell Sheet weiß nicht, ein Excell Shet erfährt nicht, ein Excell Sheet ist ein Werkzeug, kein Lebewesen... und so wie ML-Algorithmen funktionieren werden sie auch niemals mehr sein. Egal wieviele Interationen dieser Code durch"lebt", aus einem Excell Sheet wird kein denkende Individuum werden.
Da das aber fast alle Menschen missverstehen, die kaum oder keine Ahnung haben, wie solche System überhaupt funktionieren, besteht das Missverständnis, dass CRAAs funktionieren können. Es sind keine Precogs, sondern nur simple Excelltabellen, die andere Excelltabellen abgleichen und daraus Schlüsse ziehen, die sie selbst nicht versteht. Aber wie du vielleicht daran merkst, dass auch ich bei solchen Systemen mit menschlichen Begriffen wie "Selbst", "Lernen", "Verständnis" jongliere, fehlen uns derzeit noch die richtigen Termina, das präzise zu beschreiben, was solche Systeme tatsächlich leisten und was sie nicht leisten.
@@philippschmitz1787 Das ist alles leider nur zu wahr. Auch die Kollegin im Video schlampt da bei der Begrifflichkeit und scheint darauf hinzuarbeiten, in einem perfekten "Chinesischen Zimmer" mehr zu sehen und zu erhoffen als tumbe maschinelle Automation.
@@NICEFINENEWROBOT Naja, sie lächelt ja ein wenig, als sie dabei quasi erwischt, wie sie diese Begriffe verwendet.
Sie versucht nicht mehr zu sehen, ich denke eher, dass das Gegenteil der Fall ist. Aufgrund der unpräzisen Termina, kultivieren wir einen Bias, der uns denken lässt, KIs seien mehr als sie sind.
Das fiese an Biasses ist, das niemand sich vor ihnen immunisieren kann. Sie sind immer da. Man kann sich ihnen lediglich bewusst werden und im Nachhinein unser Denken analysieren und über unsere Beschränktheit lachen, wenn es uns mal wieder passiert ist.
Darüber nachzudenken, wie man einen Algorithmus dazu bringen kann, Zusammenhänge zu analysieren hat nichts damit zu tun, das chinesische Zimmer auszublenden. Es ist eher die Frage, wie die Flügel für ein Flugzeug aussehen müssen, damit es fliegt.
Achtung: Wenn man sagt, dass man einem Algorithmus beibringen will, Zusammenhänge zu verstehen, dann sind zwei Worte missverständlich für den Laien: Beibringen und Verständnis.
Wir erklären dem nix, wie wir das mit einem Kind tun würden, auch wenn es ein paar Parallelen gibt, sondern füttern die Tabelle mit Werten bzw. verändern die Einstellungen oder schreiben den Code um, damit er ein wenig anders über die Daten drüberiteriert. Aber das verstehen ja noch viel weniger, darum sagt man verkürzt: "Ich lerne eine KI an!" oder "Meine KI ist im Stande zu lernen!". Das ist zwar falsch oder zumindest unpräzise, aber für den Ottonormalidioten da draußen, wenigstens ansatzweise nachvollziehbar, was man da überhaupt tut.
Für die allermeisten Menschen sind Programmierer Cyberpunkmagier und Code eine okkulte Schrift, mit der man Dämonen beschwören kann (überspitzt formuliert), aber Code ist reine Logik, denn Logik ist die einzige Sprache, die Maschinen verstehen.
Jedem der die oben genannte vorurteilige Meinung von Programmcodes hat, empfehle ich, mal ein x-beliebiges Coding-Einsteiger-Tutorial anzuschauen.
UA-cam ist voll davon, und die meisten davon sind irre gut... Brackeys, Jason Weimann und Programmieren-Starten seien hier unter anderem genannt.
@@philippschmitz1787 Wie, ich kann mit Code keine Dämonen beschwören? Na so'n Sch…, wozu habe ich dann Programmieren gelernt??? ;-)
(Aber so ein bisschen "zaubern" geht schon, zumindestens sieht es für die Laien so aus. ;-)) Sehr gut geschriebene Antworten, finde ich. Das mit den "Ottonormalidioten" hätte ich mir allerdings verkniffen (nur gedacht).
@@c.augustin Danke... aber immer daran denken, wir sind alle nur Idioten. Manche mehr manche weniger, aber spätestens seit Sokrates müssten wir eigentlich wissen, dass wir nicht wissen. Ansonsten bringt es Idioten immer total auf die Palme, wenn man sie so nennt... und nichts macht mehr Spaß, als Leute auf die Palme zu bringen. ;)
Ex Machina, toller Film.
Ich lese seit einigen Monaten viel zum Thema Ai(ML, DL etc.) und eure Videos sind eine perfekte Ergänzung, danke dafür!
Junge - was für Genies - danke euch für den neuen Denkanstoß und dass hamer Video
Du hast krass abgenommen. Respekt!
Die Frau Buchholz strahlt viel positive Energie aus.
Frau/Man bekommt hier oft eine Ahnung vom "Wissenschaftlichen Denken".
Sie kann kaum Reden, spricht brutal Langsam und Stockend kann kein Ch aussprechen und hat mindestens 5 Fehler Drin.
„Es gibt viele weitere Bespiele in dem KI für unfaire Entscheidungen sorgt“ warum denke ich da direkt an FIFA 😂
Hast du ein mal nen auto resolve bei total war gesehen? Gefühlt fährt die ki die streitwägen gegen die wand statt in den gegner ^^
Fifa ist aber gescripted 😁
In 200 Jahren wird es doch keine Diskriminierung mehr geben......
Wir sollten die KI eher für andere wichtige dinge einsetzen
Eine echte AGI wird meiner Einschätzung nach ein Meta-programm sein, dass in der Lage ist ein Netzwerk an Modellen aufbauen zu können. Im Prinzip, so schätze ich, funktionieren Gehirne genauso.
Eine Ansammlung von Unmengen an kleinen "Modellen" die am Ende einen binären Wert aufgrund eines Inputs herausgeben. Inputs können dabei dann wiederrum durch andere Modelle miteinander verknüpft werden. So hat man am Ende eine riesiges Netzwerk an Spezialisten die alle immer nur auf sehr spezifische Muster trainiert sind.
Super cooles Video! Das Thema ist allgemein sehr interessant und ihr bereitete das, finde ich, sowohl visuell als auch inhaltlich sehr gut und vor allem verständlich auf. Ich freue mich jedes Mal, wenn ein neues Video online kommt!
Dankeschön :)
Dankeschön :)
Deine Videos zum Thema KI sind echt super! Würde mich sehr freuen wenn es dazu noch viele weitere Folgen gäbe. :-)
Interessant es zu verstehen. Danke!
KI ist weder fair, noch unfair. Sie ist im Prinzip nur eine ziemlich lange Rechnung die alte Daten in Betracht zieht, um neue Daten zu evaluieren. Wenn wir ihr "unfaire" alte Daten geben ist die KI unfair, wenn wir ihr "faire" alte Daten geben ist sie fair. Wie ein Stift, je nach Benutzer kann er das nächste Meisterwerk, oder ein abscheuliches Etwas zeichnen.
Mit anderen Worten: Eine KI (künstliche „Intelligenz“) ist nicht wirklich intelligenter als ein Stift.
Wie intelligent ist ein Stift? Gar nicht.
Was ist eine künstliche „Intelligenz“ ohne Intelligenz?
Das Problem ist weniger der Unterschied zwischen fairen und unfairen Daten, sondern eher das mangelnde Verständnis für die Unterscheidung zwischen relevanten und irrelevanten Teilen der Daten.
Aber die alten Daten sind doch nicht unfair, oder? Die alten Daten spiegeln doch einfach nur die Realität wieder, oder?
@@raphaell4808 So versteh ich das auch, aber wenn die Realität unfair war, sind damit die Daten auch unfair.
@@Capdo97 Womit zu beweisen wäre, dass die Realität unfair war. Es könnte ja genauso gut sein, dass gewisse Bevölkerungsgruppen sich durchschnittlich schlechter verhalten haben und es also Eigenverschulden ist.
@@raphaell4808 Dann kämme die Frage auf, ist es Sinnvoll, Straftäter heute härter zu bestrafen, weil sie aus einer anderen Gegend/Land etc. kommen nur weil etwaige Vorfahren härter bestraft wurden? Meiner Meinung sollten Straftaten und die damit verbundenen Strafen von früher nicht ins Gewicht fallen wie hart eine Person Heute bestraft wird.
Sehr cooler Beitrag! Echt faszinierend ist Gradient Weighted Class Activation Mapping, wo visualisiert wird wie ein Computer Vision Modell "sieht" und welche Features/Pixel für diese Klassifikation beigetragen haben. Kann ich nur empfehlen :)
Laut einer KI geht es in diesem Video über Züge. Ich bin schon gespannt!
Cedric und das Team, haben wieder ein super leicht verständliches Video rausgehauen! Vielen Dank, an das Team! Nur für den Algorithmus;-), Annika, kommt unglaublich sympathisch rüber!
Ps. Die Filmfortsetzung, Schweine im Weltall, mit dem Titel, Kühe im Weltall, würde einen Algorithmus also verwirren ;-)
Ich freue mich schon echt riesig auf die kommende Folge mit "ExMachina"
Richtig gutes Video - danke dafür!
Cooler Channel. Kam durch den Google News Feed drauf. Mach weiter so.
Da warten viele interessante Videos auf mich😅
Ich wünschte das alle Menschen zwischen Korrelation und Kausalität unterscheiden können. 🙃
Das kann mir nicht passieren, immerhin esse ich viel Schockolade!
Das Problem von schwankenden Daten kann übrigens auch durch “data augmentation” adressiert werden. Das ist ein Verfahren des Pre-Processing in Data Science. Einfaches Beispiel: Ein Bild wird leicht gedreht/unschärfer gemacht/gezoomt etc., wodurch “neue” Bilder entstehen und als Datengrundlage dienen können.
Faszinierend und Beängstigend zugleich. Mir ist egal was mit mir passiert aber KI ist schon irgendwie Creepy xD
Wirklich eine tolle Videoreihe und danke an Dr. Buchholz für die super einfachen Erklärungen :)
Filmtechnisch wäre denke ich auch I Robot oder Eagle Eye sehr interessant...immerhin geht's dort auch darum, dass sich KI weiter entwickelt :D
Ich wäre absolut Deiner Meinung, wenn ich nicht die Konferenz "Globale Krise. das betrifft bereits jeden" gesehen hätte. Dort gibt es solche Beispiele, die es bereits jetzt gibt und die uns wirklich ersetzen können. Wirklich heftig!
Danke für dieses super interessante Video 👍😊
sehr nices video danke
KI setzt gut gefüllte Wissensdatenbanken voraus. Dann wären ultraschnell parallel arbeitende Suchalgorithmen und Interpretierer notwendig, um Entscheidungen in Echtzeit zu fällen.
Aww das ist aber ein süßer umm... Hund?
Man ist gerade mal vielleicht 20 Jahre dabei KI`s zu entwickeln... mein Gott bleibt locker wartet erst mal ab was so in 243 Jahren alles so abgeht ;)
Nicht ganz, der perceptron algorithmus, welcher das mathematische model eines einzelnen neurons darstellt wurde schon 1958 erfunden.
Nichts tun lässt das Schlechte ungestört wachsen.
@@philippb3084 ja mein Gott du weiß was ich meine...
@@user-gd5tr7gw7s ich habe auch nicht gesagt man solle nichts tun sondern man darf von der KI keinen wunder oder gar ein Wunderwerk erwarten! schritt für schritt!
@Unmei dein Pech!
Ich finde, die Korrelation von Schwarzen und Kriminalität ist ein gutes Beispiel für das was du im Video sagst. Es ist ja tatsächlich so, dass schwarze Menschen in den USA weit mehr Gewaltverbrechen begehen als jede andere Ethnie. Rassisten verwechseln dann eben ganz schnell Korrelation und Kausalität und implizieren daraus, dass das Gewaltpotenzial an der Hautfarbe und damit in den Genen liegt und setzen damit den Wert eines Menschen fest. Hier wird aber eben die dritte Variable -die Armut - außer Acht gelassen. Es sind nämlich auch weit mehr schwarze Menschen arm in den USA und es gibt ebenfalls eine starke Korrelation zwischen Gewaltverbrechen und den finanziellen Verhältnissen der Täter. Das ist wiederum auf die Sklavengeschichte und noch den Rassismus danach zurückzuführen. Hier haben wir den eigentlichen kausalen Zusammenhang: Die USA ist komplett kaputt :D
Richtig. Es ist auch ein gutes Beispiel dafür das Begriffe wie "rassistische KI" oder dergleichen unangebracht und inhaltlich falsch sind. Wenn man eine KI mit unvollständigen Daten füttert, dann findet ein solche Algorithmus eben solche falschen Zusammenhänge, weil sie sich einfach schlicht durch die Lernalgorithmen ergeben. Eine KI entscheidet anhand der Daten und nicht, weil die KI spontan "Rassismus" für sich entdeckt hat. "Rassistisch sein" ist eine rein menschliche Eigenschaft, die man nicht auf Algorithmen übertragen kann, die keine Moral, kein Bewusstsein und keine Chance haben zwischen "richtig" und "falsch" zu unterscheiden.
Nichtdesdotrotz muss man bei so etwas sehr vorsichtig sein und solche Fehler als solche erkennen und beheben bzw. solche Algorithmen nicht als Entscheidungsgrundlage verwenden, wenn man nicht der Lage ist, die technischen Probleme in den Griff zu bekommen.
Sibyl System ist also schon Realität, das ist ultra gruselig. Ich hoffe, die Menschen verstehen, dass Neugier gut ist, aber man muss nicht allem Nachgeben und automatisieren.
Big up, it was amazing !!
Was mich mal interessieren würde ist wie sehr KI sich selbst beeinflusst.
Angenommen eine KI hilft auf Basis von bestimmten Daten bei der Beschaffung von neuem Personal. Werden dann die Angestellten, die von der KI ausgewählt wurden, ebenfalls als zusätzliche Trainingsdaten verwendet? Das würde bedeuten, dass nach einer gewissen Zeit nur noch extrem spezifische Menschen ausgewählt werden würden.. oder nicht?
Sehr gut
Es ist jetzt 1 Jahr seit diesem Video vergangen. Fun Fact: ich habe gerade das Beispiel mit der nassen Straße aus dem Intro mit ChatpGPT durchgespielt. Die KI hat tadellos assoziiert, vorhergesagt und eine Hypothese aufgestellt. Crazy times.
Sehr nices video:)
Sehr gutes Video, schön erklärt!😃 Unabhängige Faktoren können übrigens schon eigenständig gelernt werden (Disentangled Variational Auto Encoder, kurz DVAE), wobei dann auch automatisch zusammenhängenden Faktoren zusammengefasst werden. Das Modell mit den drei Stufen finde ich hier nicht so passend, weil KIs schon Vorhersagen treffen (zB für Aktienkurse) und hypothetische Szenarien beurteilen können (zB eine Kuh auf dem Mond erkennen 😉). Eher würde ich sagen, dass wie angesprochen Transfer und Verallgemeinerung entscheidende Baustellen sind. Danke für diese tolle Kooperation!
Danke. Zum 3-Stufen-System: Annika sagt ja sogar genau das: Es gibt teilweise schon Modelle, die auf Stufe 2 und 3 agieren.
3:01 Du hast gut abgenommen, Respekt
12:23 Ich glaub wir simulieren auch nur, dass wir was verstehen 🙃
Nur ein weiterer Hype
Es ist einfach ein Algorithmus der abgefahren wird
Ich finde das Thema extrem spannend. Könnte es vieleicht sein das das Problem der KI der Verstehens darin besteht das eingegebene Bilder und oder Objekte immer nur 2 dimensional gesehen und gelesen werden? Vieleicht sollte man versuchen KI mit 3 dimensionalen Objekten zu füttern.
Quelle 2 ist schon jetzt nicht mehr verfügbar
Wie es ausschaut, können wir uns also in Ruhe zurücklehnen... Skynet wird die Welt so schnell nicht übernehmen :)
Skynet wohl nicht, aber Interessengruppen, die uns mit KI gefundene Entscheidungen überstülpen und dann nicht verhindern können, dass das in die Hose geht.
12:57 Das liegt ja nicht an der KI, sondern am Menschen der die KI mit falschen/diskriminierende Daten füttert.
Ja, natürlich. KI ist nur ein lebloses Werkzeug, das von uns Menschen benutzt wird. Es ist immer die Schuld des Menschen, wenn da was schief geht.
@@DoktorWhatson Ganz genau. Deswegen halte ich es auch für so gefährlich, sich blind auf das zu verlassen, was der Algorythmus da ausspuckt.
Ich sehe Roboter und KI als Werkzeug. Und wie bei jedem Werkzeug kommt es auf den an, der es führt.
"Vertraue keinem Ding, von dem du nichtsehen kannst, wo es sein Gehirn hat." - Arthur Weasley
da muss ich an dieses beispiel denken wo man einer ki hunde und huskies gezeigt hat und sie sich nicht den hund/huskie zur unterscheidung genommen hat, sodnern den hintergrund welcher bei hunden grün, braun etc. war, und bei den huskies weiß, wenn dann ein hund im schnee zb. war dachte die ki es ist ein huskie
Ich nehme an, die Nobelpreisträger geben das Preisgeld hauptsächlich für Schokolade aus.
Ich weiß das ist am Thema vorbei, aber ich muss einmal positiv hervorheben wie viel Sadrik abgenommen hat, wenn man sich mal den Einspieler bei 3:05 ansieht! Ist mir gar nicht so wirklich aufgefallen bis da mal der direkte Vergleich gegeben war
Darum tuhe ich mich schwer damit diese art als KI zu bezeichnen da es eigentlich nur Algorythmen sind die von imput des Programmierers abhängig sind.
Aber diese werden immer KI ähnlicher.
Ich denke es werden noch sehr viele Jahre vergehen bis eine KI wirklich autark lernen kann. Zur Zeit sind alle KI-Programme für ein bestimmtes "Verständnis" hin trainiert worden. In anderen Worten, diese trainierten Programme sind Inselbegabt. Um alleine das visuelle "Verständnis" eines Apfels zu haben, muesste man viele Inselbegabte Programme zu einer Super-KI zusammenschalten.
Jetzt wo es Netflix gibt reden die Leute oft von Filmen die es gerade dort Präsent sind. Finde das cool 😊
Yoo das ist jetzt vielleicht ne dumme frage, aber ist die Akinator app auch eine "frühe" KI?
Ja, denn es ist ja gemäß der Einteilung im Video zu Stufe 1 Assoziationen fähig. Der Akinator ist vor allem deswegen ziemlich beeindruckend, weil er techisch recht primitiv ist, aber dennoch erstaunlich präzise Raten kann. Dies wurde durch die vielen hundertausenden Interaktionen mit den Spielern des Akinators erreicht. Zudem: Laut Wikipedia wurde der Akinator mit Hilfe von KI-Algorithmen entwickelt, das sollte die Frage also mit einem klaren "Ja" beantworten :)
@@LordRapter danke dir bro. Peace
[05:20] Beim Thema Criminal Risk Assessment Algorithms war mein erster Gedanke halt nicht Entscheidungen aufgrund von ein paar wenigen Zahlen zu treffen, die ein Computer ausspuckt. Aber so einfach ist es dann halt leider doch nicht. Oft sind Datensätze zu Groß und zu unübersichtlich. Aber wir wollen trotzdem fundierte Entscheidungen treffen. Also müssen die unübersichtlichen Daten auf das wesentliche reduziert werden.Und dann stehen wir wieder vor dem Ausgangsproblem: wir treffen Entscheidungen aufgrund von ein paar wenigen Zahlen.
Exakt. Und das ganze leider um Kosten zu sparen… >.
Exakt. Und das ganze leider um Kosten zu sparen… >.
Theorie theorie Millionaire brauchen keine Theorie sie machens eh einfach 😂💪
Ich bin der Meinung, dass Intelligenz einfach nur die Neuverknüpfung von alten Erfahrungen ist, dadurch würde ich bei deiner Frage, ob Ki nicht nur eine Intelligenz simuliert, da sie nur den Input generalisiert wieder geben (was sie aus meiner Perspektive machen), sagen, dass die Menschen doch nur das Selbe in besser machen.
Top
Also mich würde mal interessieren was passiert, wenn man ein solches neuronales Netz aus analogen Bauteilen wie Operationsverstärker, Kondensatoren, Spulen, transistor (als Verstärker nicht als Schalter), Dioden und ko aufbaut, dann müssten doch diese digitalen Ungenauigkeiten wegfallen oder es besser funktionieren, also wenn man es dann auch analog "füttert".
Vielleicht habt ihr dazu auch Infos ob es solche Projekte gibt, wie sie im vergleich sind etc.
10:15 min..was ist das runde Teil auf ihrer Stirn???
5:10 kennt ihr das Buch QualityLand? Der dritte Weltkrieg wurde dort ausgelöst, weil eine KI eine Kuh nicht erkannt hat... wollte ich nur angemerkt haben.
Es wird so viel über KI fabuliert. Dabei naviegiert mich Google seit eh und je zuverlässig - auch nach dem drölfzigsten mal - bis vor meine Haustür.
"Es wird immer über den Klimawandel gesprochen, dabei scheint doch gerade die Sonne."
Woww einfach nur woww
Deshalb mußte es eigentlich auch VI und nicht KI heißen. Den Unterschied gab es auch in dem Spiel Mass Effect. KI ist das wo wir vielleicht hin wollen.
Der Kanal ist super, aber mir ist schon in mehreren Videos aufgefallen, dass sie Klimahysterie subtil vermittelt wird.
Ich wäre arbeitslos aber hätte eine besser Lunge :D
Was ist Intelligenz...
Weiss ich nicht...
Lass uns einfach eine KI entwickeln...
😆😆😆
👻👻👻
Ich hoffe du und dein Team haben die Schokoladentafel dann trotzdem gegessen ❤️😂
kann es sein das bei 6:53 ein Fehler bei der X Achse ist?
Da treffen sich zwei aber oft.....
Gabs nicht mal so ne KI die Bewerber für Jobs beurteilen sollte und automatisch alle Frauen rausgefiltert hat weil sie statistisch seltener in den Führungsetagen landen?
ja, das war Amazon
Wenn eine ki von alleine lernen kann. Und sich dadurch weiter entwickelt.
Hat die dann ein Bewusstsein? Ich meine als Kind fängt man auch an zu lernen. Man sieht Bilder verarbeitet sie und gewinnt dadurch Informationen. Dann haben wir ein Bewusstsein.
Nein. Menschen haben eine hochkomplexe "Hardware" wenn man so will, die das Ergebnis von Millionen Jahre Evolutionen ist und somit kann man diese komplexe Struktur nicht einfach nachbilden. Selbst die größten und komplexesten neuronalen Netze die es heute gibt, sind im Vergleich zum Aufbau des menschlichen Gehirns hochgradig primitiv.
Das menschliche Bewusstsein entsteht durch eine anzahl komplexer Gehirnareale die nicht nur massiv parallelisiert sind sondern auch hochspezialisiert. Erst durch dieses komplexes Zusammenwirken entsteht "Bewusstsein". Würde man z.B. nur einen Teil der Großhirnrinde des Menschen betrachten, würde es sich zwar um ein sehr komplexes Gewebe aus Neuronen handeln, aber es wäre für sich genommen noch lange kein Bewusstsein. Wenn man ein Stück des Gehirns eines Menschen entfernt, dann bleibt sein Bewusstsein zum Großteil intakt. Deine Persönlichkeit sitzt also nicht in einem spezielen Areal. Sie ist die Summe aller Zusammenwirkungen deines Gehirns.
Künstliche neuronale Netze sind dagegen ultraprimitv, noch deutlich primitiver als kleine Lebewesen(z.B. eine Ratte) und können daher nicht einfach so ein Bewusstsein entwickeln. Auch nicht wenn man so ein Netz mit Terabytes an Daten füttern würde und das über 10-20 Jahre. Daraus wird kein Bewusstsein, weil künstliche neuronale Netze dafür nicht genug Verbindungen eingehen können, auch keine Plastizität aufweisen(also die Fähigkeit die Architektur zu verändern) und ihnen wie gesagt spezialisierte Gebilde fehlen, die auch nur im Ansatz menschliches Denken nachahmen könnten. Zumindest nicht auf diesem Weg.
Also nur mal vorne weg: Sich mit der Frage "Was wäre passiert, wenn?" auseinander zusetzen, ist eine Sache der menschlichen Natur... Aber eigentlich hat man ein Ergebnis aus einer Situation, ständig und fortlaufend. Wenn wir logisch an die Sache gehen, würde sich eine "was wäre passiert, wenn..." Frage gar nicht ergeben. Anders sieht es bei "Was wäre, wenn" oder "try and error" Fragen aus, bei denen man den Anfangszustand beliebig oft unter anderen Bedingungen, wiederholen kann. Natürlich nur solange, wie man nicht die Exstistenz eines ganzen Planeten aufs Spiel setzt ^^
letztens gesehen wie ein Tesla einen gelblichen Vollmond als gelbe Ampel 🚦 erkannt hat.
versuche es weiter
Ich weiß auch nicht, was ein Apfel ist. Welche Molekül-Varianten in verschiedenen Sorten in welchen Maßen vorhanden sind und zu welchem Zweck.
Schon allein der Anschein, wir wüssten mehr was ein Apfel ist, verwundert mich. Wir haben genauso eine Representation eines Apfels, wie ein Computer. Und wenn wir einen Apfel noch nicht von Innen gesehen, noch jemals Früchte/Gemüse gesehen hätten, wie sollten wir wissen können, wie der Apfel Innen aussieht.
Das eine KI, die die Pixel analysiert nicht um die Ecke schauen kann, ist klar.
Bin fassungslos ey
Wenn ich die letzten zwei Jahre nicht geraucht hätte, dann würde mein Leben so aussehen, wie es gerade aussieht.
3:05 Meinst du Korrelation oder Koinzidenz?
Eine Bilderkennung die Kühe bei falschem Hintergrund nicht erkennt, ist eigentlich nicht mehr zeitgemäß. Moderne Algorithmen (CNNs) erkennen die Features einer Kuh, egal in welchem Kontext. Es sollte aber auch etwas Kuhähnliches zu sehen sein, und keine Mutante.
Die Qualität der Trainingsdaten ist natürlich entscheidend. Wenn man eine KI mit Vorurteilen trainiert, kommen auch Vorurteile heraus. Das hat aber mal nix mit dem Algorithmus zu tun,
sondern "rein menschlich" mit der Auswahl der Daten. KI ist ja nur ein Werkzeug.
6:00 Über deinen Gefängnisaufenthalt entscheidet auch das psychologische Gutachten. Und psychol. Gutachten dürfen sogar von Zahnärzten gemacht werden.
Jeder der eine medizinische Grundausbildung hat, ist berechtigt, psychologische Gutachten für Gerichtsprozesse zu erstellen. Nur anhand von Angaben in Dokumenten, ohne den Angeklagten jemals gesehen zu haben.
Was einer "starken KI", die eigenständig schlussfolgern kann, am nächsten kommt, sind wohl "Graph Neuronale Netze (GNNs)". Da liegt die Hauptinformation nicht in einer mehrdimensionalen Hyperfläche, sondern in einem strukturierten Graphen.
Aber das Hauptproblem ist, dass mit jeder neuen Eingabe, neuen Sensor- oder Sinneseindrücken, ... ein KI-Modell neu geupdatet/trainiert werden muss. Wir Menschen können unser Weltbild schneller aktualisieren, wenn neue Infos kommen. Einige zumindest.
Ach ja, wer in das Thema einsteigen möchte. Hier gibt's einen guten Kurs zum Thema "Graph Neural Networks":
ua-cam.com/play/PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn.html
Kann ich empfehlen. Hab ich mir schon komplett reingezogen ;-)
Zu den Auswahldaten bei der Erkennung einer Kuh. Das stimmt nur bedingt. Ein Mensch, der als Messlatte für den Begriff Intelligenz steht, könnte auch von klein auf Kühe nur auf Wiesen zu sehen bekommen und wäre dennoch in der Lage eine Kuh am Strand als Kuh zu erkennen.
@@felistrix7163 Ich behaupte mal, das gilt auch für CNNs, sofern diese die richtigen features gelernt haben. Sicher, es gibt gute und schlechte KIs, aber ich sehe kein grundsätzliches Problem darin, warum ein Künstliches Neuronales Netz das nicht auch können soll.
Ich stimme deinen Ausführungen zu. Leider ist das Video etwas einseitig. KI ist grundsätzlich neutral und nur so gut, wie sie erstellt wurde. Leider wird hier von KI menschliches Denken gefordert und gejammert das es fehl schlägt. Das würde ja auch bedeuten, dass das menschliche Denken nachgebildet werden muss. So etwas ist meines Wissens nach nicht angestrebt. Z. B. Zerlegung eines Bildes mit dem Auge. Trotzdem ein Anfang.
Lasst das program lernen"durch beobachten"
Dr Watson wenn ich Dein Gesicht hätte und würde mich im Spiegel ansehen würde ich mich ganz bestimmt umdrehen
Wenn ich die letzten zwei jahre nicht geraucht hätte, hätte ich mein leben genauso gelebt, da ich nichtraucher bin
Es wundert mich doch immer wieder .. die Leute hören Intelligenz & denken ernsthaft das es so ist. Ich hatte erst letztens dieses Gespräch mit meinem Nachbarn der zu Alexa Bitte & Danke sagt, nachfragt wie es "ihr" geht etc. weil nach seinem Verständnis, muss das ja schon Intelligent sein sonst könnte ja nicht vernünftig geantwortet werden. 🙄🤦🏻♂️
Es ist doch einfach nur dumm .. genauso wie die Menschen welche der Meinung sind ihre Hunde oder Katzen würden sie verstehen. 🙄
Verstehen wir Menschen überhaupt irgendetwas wirklich?
Das schreitet ja immens voran! Aber die soziale Gragilität, die sich in den letzten Monaten überall gezeigt hat, ist ja nicht aus einem Mangel künstlicher, sondern aus Mangel an natürlicher Intelligenz erwachsen. Ob KI hier die Prothese ist, die nach Evolutionsgesätzen zum Rückgang der sie aufbessernden Fähigkeiten führt? Das wäre eine nächste Frage für Deinen nächsten Beitrag. Stimmt es, daß KI zutiefst misanthrop motiviert ist? Ist aus einem Lebensüberdruß heraus KI wünschbar geworden? Fragen sollte es jetzt hageln!
Hab' gestern nur durch Zufall Ex Machina gesehen😂
4:18 „dann füttern wir dem Algorithmus natürlich eine Menge Bilder von Kühen“ jemandem etwas füttern?😳
Eine Maschine wird nie ein Bewusstsein haben. Weil das eben mehr als nur Verbindungen von neuronen ist oder Algorithmen.
Die Welt ohne Internet wäre auf jeden Fall nicht von ganz so vielen dummen Menschen umgeben
Rauche aber seit fast 4 jahren nicht mehr.. was nu?
Ich glaube ja, dass es Wiesen ohne Kühe gar nicht geben würde. Oder war das andersrum? 🤔
Nö.
Und da haben wir es wieder
12:10 Apfel*innen
Ihr könnt es nicht lassen zu gendern XD
Ich finde das Video etwas zu populärwissenschaftlich. Der Kern von maschine learning ist Gradient Descent und das sollte wenigstens mal angesprochen werden.
Hast du akademische Vorlesung erwartet?
Woher weiß er, wie lange ich rauche? o_O
Also geht es hin zur digitalen Glaskugel ? 😂
Es stimmt nicht, dass Menschen auf "Ebene 3" agieren würden. Hypothesen sind Wissenschaftliche Konstrukte. Wissenschaft ist aber nur ein kleiner Teil des Denkens. Außerdem sind Hypothesen keine absoluten Wahrheiten, sondern eben nur Vermutungen, die gerade so gut eine Realität beschreiben, dass man sie benutzen kann, um damit gut genug vorhersagen um Funktionalitäten zu machen. Wir assoziieren also auch ganz häufig, ohne direkte Hypothesen aufzustellen
Natürlich agieren wir nicht ausschließlich auf Stufe 3 und natürlich machen wir dort auch Fehler, das ht ja niemand angezweifelt.