Mein Hoodie und T-Shirt von euch ist heute endlich angekommen, sehen super aus und passen wie angegossen. Gleich mal dieses super gemachte Video im neuem Hoodie geschaut :) , macht weiter so.
@@Rexithedud inwiefern? Die Gesellschaft war in den letzten 40 Jahren nie so stark gespalten wie heute und "positive" Diskriminierung ist zwar ein kleiner Grund aber immerhin ein Grund
Sehr gutes Video, wie du schon angesprochen hast, ist die Blackbox bei KI ein großes Problem. Da kann dem Entwickler nicht eben sagen: "Debug das mal schnell". Und es gibt auch ein Unterschied, ob nur Bilder, nur Text oder ein Mischmasch analysiert wird. Das ist alles gar nicht so einfach und wird noch min. 1 Dekade nach sich ziehen.
Die Intervention auf Proxies bietet alle Möglichkeiten der Manipulation. Was dann als "Fairness", also "Gerechtigkeit" eingebaut wird ergibt sich aus den Vorgaben der Legislative - Politiker
Bei AI und Verantwortung finde ich das Trolley Problem sehr interessant! Wenn ein selbstfahrendes Auto in die Situation kommt, in der es entscheiden muss: Überfährt sie das Kind, das gerade auf die Straße gesprungen ist, oder versucht sie ein Ausweichmanöver mit dem die AI den Fahrer gefährdet? Was ist moralisch vertretbarer? Entzieht sich der Fahrer der Verantwortung? Wer hat Schuld für den Unfall?
5:48 das weniger Frauen fotografiert werden halte ich eher für ein Gerücht eher sind männlich diejenigen die seltener fotografiert werden. Frauen sind eher im Bereich Mode, Beauty, (Foto) -model, tätig. Weniger im technischen Bereich
Es geht nicht darum wer mehr Fotografiert wird sondern welche Fotos in das Daten Set der ki "hereingefüttert" werden. Und ich nehme Mal dass die Fotos aus den Daten Set Menschen in natürlichen Situationen zeigen soll und Menschen die in der Model Szene arbeiten in solchen Fotografiert werden Tbh keine Ahnung von was ich rede
@@BobAndrews69 Das heißt ja dann, dass man aber nicht nur Bilddaten von Personen hernehmen kann, von denen es eben schon viel Material gibt, sondern eben auch mal gezielt Leute für solche Studien suchen muss.
Ist doch völlig egal wer mehr fotografiert wird. Wenn man als Hersteller der Software möchte, dass sie richtig funktioniert, dann sollte man ihr halt die nötigen Daten geben lol.
Fotografiert mehr Frauen? Ich kann mir nicht vorstellen das es mehr Bilder von Männern als von Frauen gibt, wen hier die Privaten mit eingerechnet werden. Wahrscheinlich gibt es weit mehr als 10 mal mehr Bilder von Frauen als von Männern. Es kommt drauf an welche Bilder man auswählt und nicht wie viele es gibt.
Ja die Anzahl der Fotos ist definitv nicht das Problem nur die Auswahl im Datensatz. Allerdings denke ich auch dass die dunkle Hautfarbe aus technischen Gründen mehr Probleme macht. Es gibt z.B. weniger erkennbare Details bei schwarzer Hautfarbe. Es braucht dafür deutlich höhere Dynamic Range.
Ein schönes Erklärungsvideo, dass die Problemstellung der Anwendung von KI im Personalbereich gut darstellt. Allerdings liegt das Kernproblem der Betrachtung von Bewerberdaten nicht nur in der bereits durch die Datenauswahl subjektivierten Bewertung, sondern am fehlerhaften Grundprinzip, dem sich selbst erfahrene Recruiter nur selten widersetzen: Der simplifizierte Match zwischen Qualifikation und Aufgabenstellung in einer 2-dimensionalen Betrachtung, welche die umgebenden Variablen - insbesondere in Form der mitbeteiligten Kolleginnen und Kollegen idR komplett(!) außen vor lässt. Anders gesagt: Das psychologische Profil - und hierbei insbesondere dessen sozialen Komponenten - sind für die erfolgreiche Integration neuer Mitarbeiter von erheblicher Bedeutung und werden nur in den seltensten Fällen angemessen berücksichtigt. Carl Gustav Jung hat dies schon vor über 100 Jahren erkannt und in seinen Archetypen verarbeitet. Welche Rolle nehme ich in meinem Kollektiv ein, wie interagiere ich mit meinen Mitmenschen und welche Konstellationen sind für welche Aufgabestellung optimal geeignet? Mit einem geeignetem Test (16 Personalities z.B. liefert gute Ansätze) und entsprechend programmierten Algorithmen könnte man Teams zusammenfügen, die hinsichtlich ihrer Effizienz und ihres Zusammenspiels das heutzutage immer noch Übliche Zusammenwürfeln völlig in den Schatten stellen würden, und dies sogar bei konsequentem Ausschluss von Daten bezüglich der Herkunft bzw. Ethnie. Grundlagen hierfür gibt es genug, man kann sich z.B. an den Erfahrungen und Ergebnissen bedienen, welche die Entwicklung des Mannschaftssports seit vielen Jahren prägen und die Team- bzw. Rollenfähigkeit von Bewerbern als wichtigsten Entscheidungsfaktor etabliert haben.
Wenn schwarze Menschen zu längeren Haftstrafen verurteilt werden, haben sie eine geringere Chance (weniger Zeit) rückfällig zu werden, als weiße Menschen die schneller aus dem Gefängnis wieder freikommen. Allerdings wollte die Frau wohl argumentieren, dass die längeren Haftstrafen zu einer höheren Rückfallquote führen. Von daher passte da die Logik nicht ganz.
Ist sowieso in großen Teilen fragwürdig wie diese Diskussion geführt wird. Grundsätzlich weiß man erstmal dass lange Haftstrafen mit schwarzer Hautfarben korrelieren. Jetzt kann man da natürlich Rassismus annehmen, man kann aber genauso gut zu dem Schluss kommen dass Menschen mit schwarzer Hautfarbe brutaler oder rücksichtsloser sind, so werden in den USA ja auch überproportional viele Straftaten von Schwarzen begangen. Ich will damit nicht sagen dass Kriminalität irgendwie genetisch bei dunkelhäutigen Personen höher ist. Aber der Punkt ist ob Rassismus oder sinnvolle Gründe hinter dieser Korrelation stehen ist nicht erkennbar. Ich muss also nun subjektiv entscheiden welche welche Faktoren in mein Modell hinein zählen sollen. Wenn dann Faktoren übrig bleiben die immer noch mit der Hautfarben korrelieren muss ich die rausnehmen oder aktiv gegensteuern. Es wird also auch nicht mehr objektiv algorithmisch gearbeitet sondern subjektiv. Das kann selbst wieder sehr gefährlich sein. Mindestens so sehr wie ein möglicher Bias in den Ursprungsdaten.
10:30 Ich kann kaum glauben was ich da höre also nur nochmal für mein Verständnis. Man findet also, dass Variablen wie beispielsweise Geschlecht vorhersagen wie gut ein Bewerber für einen Job geeignet ist (z.B. weil Männer mehr Muskeln haben sind Sie oft bessere Möbelpacker). Entsprechend ist das Geschlecht ein guter Prädiktor dafür, ob jemand einen 100kg Tisch heben kann oder nicht. Dann löscht man diese Variablen, weil einem nicht gefällt, dass Männer hier aufgrund ihres Geschlechts einen Vorteil haben. Da der Prädiktor Geschlecht aber so stark ist nimmt der Algorithmus dann andere Variablen die hoch mit dem Geschlecht korrelieren. Weil einem das ebenfalls nicht gefällt nimmt man die stärke des Effekts und "korrigiert" um diesen Effekt... Also Frauen kriegen z.B. einfach einen höheren Eignungsscore, obwohl weniger Fähigkeiten vorhanden sind. Die Konsequenz daraus ist, dass ich nicht nur aktiv und willentlich diskriminiere sondern ebenfalls eher einen ungeeigneten Kandidaten bekomme.. genial
das problem ist, dass man davon ausgeht, dass die daten alt sind und deswegen dinge wie nationalität grundlos wertet, wegen diesem problem versucht man dass zum beispiel nicht IT skills nicht zu werten, weil der datensatz kein fehler hat
Ja ist grundsätzlich richtig. Ich halte es auch für mindestens genauso problematisch künstlich ideologisch Dinge zu ignorieren wie der Bias in Ausgangsdaten selbst.
Ich hätte mal ganz gern gewusst ob die Statistik auch gesagt hat, ob die jüngeren/schwarzen dort auch öfter wierderholungstäter waren, wenn ja gab es nie einen Fehler, sagt komischerweise nur nie jemand, sus. Und KI != Maschinenlerning! Du kannst ab und an nicht predigten was dein Netz sagt, selten wenns gut ist, but still. Was ne Künstliche Intelligenz (Die wir noch lange nicht haben) macht könntest du als "Schreiber/Programmierer", genauso gut einschätzen maximal, wie du einen Fremden auf der Straße einschätzen kannst.
Man muss aber auch aufpassen, dass man nicht faktoren rausnimmt, die aber soch einen Einfluss haben. Z.B. als Bauarbeiter hat man als Mann nen klaren Vorteil, weil Männer halt natürlicherweise muskulöser sind. Bei einer hypothetischen "Bauarbeiterbewerbung" würde also das Geschlecht doch eine Rolle spielen.
Es gibt aber einen Unterschied darin, ob jemand nicht genommen wird, weil er schwächer ist oder jemand nicht genommen wird, weil er zu einer Gruppe gehört die im Durchschnitt schwächer ist. Also spielt das Geschlecht korrelativ eine Rolle, aber nicht kausal. Am Geschlecht sieht man nicht, wer stärker ist, sondern wer wahrscheinlich stärker ist. Das Problem bei KI ist, dass dieser Unterschied nicht so einfach zu überbrücken ist, weil die in erster Linie auf Korrelation basieren.
@@pastusmarcus2249 hast schon irgendwie recht, aber andererseits ist das Geschlecht ja schon kausal verknüpft. Wegen des Geschlechtes ist derjenige _wahrscheinlich_ stärker. Deine Kritik kann man halt auch auf valide Punkte übertragen. Leute, die schon mal in der IT gearbeitet haben, sind im Schnitt besser für einen anderen IT job geeignet, *aber nicht zwingend*. Ist genauso ein Faktor, der die Wahrscheinlichkeit der Tauglichkeit in der IT erhöht wie das Geschlecht für die Tauflichkeit am Bau.
@@kunai9809 Mhh, ja. Ich hab das Gefühl es kommt drauf an, welches Ziel man verfolgt. Ist das Ziel, man möchte fair zwischen geeigneten Personen wählen, dann wäre das nur Korrelation. Möchte man aber wissen, ob eine Frau oder ein Mann wahrscheinlich besser für den Job geeignet ist, wäre es Kausalität. Und in deinem Beispiel geht es doch darum zwischen einem Mann und einer Frau zu wählen, was bedeutet die Daten würden nur korrelative Ergebnisse liefern. Hätte man deren Kraftprofil, würde es wunderbar funktionieren. Also sind die Daten wieder schuld (oder derjenige, der sie ausgewählt hat).
@@pastusmarcus2249 abstrahiert geht es ja darum: Attribut A ist wichtig für den Job. Attribut A korreliert positiv mit Attribut B. Attribut B an sich ist aber unerheblich für den Job. Ist es jetzt vertretbar, Bewerber nach Attribut B zu bevorzugen? Wenn man Zugriff auf Attribut A hat, ist das natürlich nicht nötig oder ggf. sogar hinderlich. Wenn aber A so etwas abstraktes ist, wie die Eignung für einen Job, was man gar nicht richtig quantifizieren kann, dann finde ich es persönlich durchaus gerechtfertigt, auf B zurückzugreifen.
@@kunai9809 Ja, aber nur wenn der Zugang zu den Informationen nicht gegeben ist. Und darum geht es ja gerade. Sollte der Entwickler sich nicht darum kümmern, dass Attribut A festgestellt wird? Also mehr Informationen einholen, um eben A feststellen zu können. Denn stell dir vor du würdest nach B handeln und dann würde jemand sagen, du hättest A aber feststellen können, was dann? Und ja wenn man auf A keinen zugriff hat, dann geht es ja nicht anders als zB B oder C zu nehmen. Aber bei deinem beispiel wüsstest du, was ein besseres Attribut wäre und zwar die Kraft. Und wenn man das einfach ignorieren würde, dann wäre das nicht fair.
Solche KI's werden entwickelt um etwas zu vereinfachen. Welcher Entwickler würde denn eine KI mit unvollständigen Datensätzen laufen lassen, wenn die nicht die gewünschten Ergebnisse liefert. Das vereinfacht nichts und ist somit unbrauchbar, bis der Fehler behoben ist. Bisschen dramatisch dargestellt...
Hi Doktor Watson, ich kenne Dich schon länger: bist Du nicht damals bei Clixoom gewesen wenn dieser Krachten (bin mir über seinen Namen nicht mehr sicher) keine Zeit hatte? Anyway: tolles Video, die ganze Serie ist klasse, Du erklärst es wirklich toll; ich bleibe mit einem Abo da obwohl ich schon so viele habe dass ich kaum noch durchblicke. Egal, schönes Wochenende
Sehr interessantes Video, danke dafür! Die Forschung zur "Fairen KI" führt mich zu folgenden Gedanken: Nehmen wir 1000 Boxen und bitten 1000 Menschen jeweils in eine Box Ihre Stimme zu legen. (Die Leute sehen nicht wie die Box aussieht, stellen wir uns vor die sind verdeckt) Nun nehmen wir an die ersten 300 Boxen haben mehr als 900 "Stimmen" erhalten, wenn wir nun zeigen würden das die ersten 300 Boxen Weiß sind und die letzten 700 Boxen schwarz -oder umgekehrt-, dann wäre ist ja rassistisch... dann würden die Forscher hingehen und den Algorithmus boosten damit eine gleiche Verteilung herauskommt (was in meinen Augen schon eine Verzerrung ist). Am ende wird es passieren das Menschen anfangen entgegen Jahrtausendalter Erfahrung dinge zu tun nur weil irgend jemand versucht hat es "Fair" zu machen. Spinnen wir weiter, stellen wir uns Vor das wir vielleicht in 30 Jahren feststellen werden (Achtung total verrücktes Beispiel, ich hoffe ihr versteht was ich meine): Das Menschen die Schokolade von Firma X mögen und gerne Golf spielen dazu neigen Serienmörder zu werden, nun benötigt aber eine Firma Astronauten und Filtern diese Leute nicht aus. Weil das wäre ja diskriminierend?! Was passiert als nächstes? Werden wir versuchen Tiger/Löwen/ andere Raubtiere als Haustiere zu halten, weil es diesen Tieren gegenüber diskriminierend ist? dies nicht zu tun? Übersehe ich irgendetwas oder bin der Einzige der das Problem sieht? Eure/Deine Meinung interessiert mich :)
Man kann ja eigentlich so was wie machine-learning on the fly machen, also bei der Gesichtserkennung:Wenn man sich nicht anmelden kann und dann zmb den Code eingibt kann ja ansich das Programm natürlich gibt's dadurch viele weitere Probleme
Ich verstehe hier nicht unbedingt warum das "immer" ein Problem ist. Hautfarbe, Geschlecht, Herkunft, etc. mögen alle "rassistisch" aufgeladen sein, bieten aber in vielen Fällen tatsächlich informationen über die Eignung für einen Job. Im Video hier, wurde z.B. "rassistisch" festgestellt, dass "diverse Teams" besser performen als "weiße männliche Teams". Das mag (in vielen Fällen) auch stimmen, ist aber genauso "rassistisch" wie die umgekehrte Schlussfolgerung, dass in bestimmten Situationen "weiße männliche Teams" besser performen werden als "diverse Teams" (und ich bin 100% sicher, dass letztere Schlussfolgerung selbst bei "divers trainierten" Algorithmen trotzdem häufig auftritt). Im ersten Fall sucht niemand nach einen Grund für den vorliegenden "Rassismus", im 2ten Fall aber jedes Mal. Selbstverständlich sind unvollständige Trainingsdaten oft für fehlerhafte Vorgänge verantwortlich, aber selbst wenn die Trainingsdaten "alles" beinhalten kommt es zu Situationen in denen wir auf Teufel komm raus Rassismus/Sexismus/Sonstigeismus suchen und auch finden, obwohl einfach keiner da ist. "Wenn Geschlecht oder Herkunft einen Einfluss haben weiß die Firma, dass ihr Programm Murks ist". Und was ist jetzt, wenn das Programm kein Murks ist, sondern statistisch gesehen polnische männliche Personen in diesem Job schlechter abschneiden, und der Algorithmus deshalb lieber diverse Personen aus Schweden einstellt? Alles was hier Murks ist ist die Argumentation. Ohne die dahinterstehenden Trainingsdaten/Statistiken zu kennen kann man hier NICHT beurteilen ob das Programm seinen Job "richtig" macht oder nicht.
Wie ich Leute aussuchen würde? Ich schaue mir mein Team an, sehe die Stärken und Schwächen auf den jeweiligen Feldern. Nehmen wir einmal Betreuung von Menschen. Was muss die Betreuungskraft tun: - Gespräche führen können - Botengänge - Arztbesuche - Essen anreichen (streng genommen nicht, aber findet dennoch überall statt und halte ich für sinnvoll, da auch das Essen ein Teil unseres Leben ist.) - Einzelbetreuung (Spazieren gehen, Einzelgespräche führen, da sein ohne Aktivität, ...) - Gruppenbetreuung, also Aktivierungen für diverse Felder gestalten. - Feste organisieren An einem Tag kannst du Ideal abgedeckt und ohne Arztbesuche und Botengänge zum Beispiel 6 Aktivierungen tätigen. Sagen wir 3 Gruppenaktivierungen und 3 Einzelbetreuung. Du kannst auch 2 Gruppenaktivierungen gleichzeitig tätigen lassen an verschiedenen Orten zum Beispiel bei schlechtem Wetter oder in der kalten Jahreszeit, wo die meisten Menschen nicht hinaus gehen möchten. Also, neben diversen Basics zu denen auch die Empathie gehört, brauchst du Gruppenaktivierungen die eben sehr divers sind, dies bedeutet zum Beispiel auch eine Kategorisierung der Themenfelder, was machst du für Aktivierungen? - kognitive und Gedächtnis in Anspruch nehmende Aktivierungen - motorische Aktivierungen, Bewegung und Sport - musikalische Aktivierungen - künstlerische Aktivierungen - sensitive Aktivierungen (fühlen, hören, sehen, riechen, schmecken) - thematische Aktivierungen - kulturelle Aktivierungen (Zeitung, Weihnachten, ...) - Phantasie anregende Aktivierungen - Aktivierungen mit sozialer Interaktion ... Da haben wir natürlich Aktivierungen die in mehrere Bereiche überlappen können und auch Bereiche die nur einen Bereich abdecken. Ich zum Beispiel bin ganz stark drin bei kognitive und Gedächtnis, da brauchst du eben nicht noch 2 weitere die darin ihre Stärken haben. Eine Schwäche bei mir wäre die musikalische oder die künstlerische Aktivierungen. Da hole ich lieber solche Leute ins Team. Als Beispiel wäre in unserem Team die schwäche der musikalischen Aktivierung, diese sollte gefördert werden. Wenn also einer sich darauf bewirbt und angibt, musikalisch bewandert zu sein, dann ist dies ABSOLUT willkommen.
@@blackforestwarrior Ganz einfach ausgedrückt, stell dir vor, du bist Erzieher oder Erzieherin. Wieso soll es dir wichtig sein, dass dein Geschlecht dort stärker vorhanden ist, wenn es das dominierende Geschlecht ist? Keines! Männliche und weibliche Vorbilder sind nun einmal notwendig. Schauen wir weiter und sehen uns die Stärken an, wenn du ins Kunst und Basteln eine Niete bist, dann freust du dich, wenn andere Personen dies übernehmen können, die darin ihre Stärke sehen. Ich glaube daran erkennst du ganz gut, wohin meine Denke geht. Denn zum Einen kannst du Spezialisierungen tätigen und zu gleich erhöhst du damit neben der eigenen Lebensqualität, doch durch gewisse Tätigkeitsfelder nicht durch quälen zu müssen, die Qualität der jeglichen Tätigkeitsfelder. Es ist ja auch schon wissenschaftlich belegt, dass genau dieses Auswahlverfahren deutlich mehr Sinn ergibt und mehr Erfolg verspricht, weil du hier eben viele Menschen hast die dahingehend aus verschiedene Perspektiven diese einwerfend zu den besten Ergebnissen kommen können, oder auch weil stets die Stärken ausgespielt werden können und so die Schwächen kaschiert werden. Du holst dir ja auch nicht unbedingt die 11 besten Fußballspieler, weil du dann merkst, dass es keine gute Mannschaft ergibt. Mal von der Position abgesehen, gibt es ja gewisse Stärken und Schwächen und Vorstellungen der Art und Spielweise und Philosophie die es bestimmen werden.
das thema "erklärbare ki" würde mich genauer interessieren. könnt ihr dazu irgendwelche bücher empfehlen? (...und damit meine ich jetzt durchaus auch so richtige lehrbücher auf universiätsniveau mit der vollen mathe-dröhnung)
Also: Es ist so eine Sache und ja, bei Bewerbungen, oder Bestimmung des Strafmaßes ist es eine kritische Sache, das verstehe ich schon. Aber! Man muss auch sagen, dass dann hier eher Ideologie eine Rolle spielt, was an sich auch okay ist. Denn man will Veränderung und die erreicht man nur, wenn man bestehende Muster aufbricht. Bei Hobbies: Ja das ist so ne Sache, aber da könnte man schauen, welche kausalen Zusammenhände es gibt und diese Punkte sepperat betrachten. Jemand der Ski Fährt muss Geld haben, jemand mit Geld hatt eine andere Bildung gehabt, wird also warscheinlich auch gewisse Dinge besser machen. Was da eher das Problem ist: Wie wir denn definiert WAS gut und was schlecht ist? An dem wer eingestellt wird? Wenn es so ist, dann ist das ganze nur eine art Zusammenfassung dessen, was bisher so gemacht wurde. Oder soll geschautr werden, wie erfolgreiche Unternehmen gehandelt haben? In wieweit erfolgreich, unter welchen Bedinungen? Diese ändern sich ja. Aber nehmen wir mal das Strafsystem: Ein System, dass auch rassistisch erkennt wo eine primäre Gefahr droht, das ist okay, denn hier fehlt einfach die Zeit. Aber auch das muss dann berücksichtigt werden. Wenn Schwarze wegen dem System eher kontrolliert werden, dann wäre es wichtig wieso. War die Kotrolle wegen dem Faktor "Möglicher Diebstahl" empfohlen, die Person hatte aber etwas zu kiffen dabei, dann sollte dies vom System anzegeigt werden und dann dementsprechend ignoriert werden. Wenn sie wärem sonst vom System ja erst garnicht erfasst worden. Auch beim Strafmaß: Da sind Schwarze anfälliger um wiederholungstäter zu sein, was oft an deren gesellschaftlichem Umfeld liegt und da könnte man schauen. Wenn die Person in so einem Umfeld ist, wäre ein Angebot gut sie da heraus zu holen. Bleibt er in dem gleichen System, dass ihn dazu gebracht hatte krimminell zu werden, dann ist nunmal die Warscheinlichkeit hoch, dass er Rückfällig wird. Ihn deswegen aber härter zu bestrafen, wäre ein Schuss nach Hinten.
Wir äussern uns nicht zu unseren Entscheidungen Mein Kopfkino: Sachbearbeiterin: "Peter, nimm den Obersten 3tel der Bewerbungen und wirfs sie weg" Peter "Aber die haben wir doch noch gar nicht angeschaut" Sachbearbeiterin: "Ja, die haben Pech, und leute mit Pech können wir nicht brauchen..."
Ich glaube es ist insgesamt sehr verwirrend, dass du in den Videos fast immer KI und Machine Learning gleichsetzt. Machine Learning ist ja nur ein Teilbereich der KI. Deswegen würde ich mich freuen wenn du noch ein Video machen würdest in dem andere Ansätze zur KI vorstellst. Wie auch im Buch “Rebooting AI” dargelegt, scheint Machine Learning nämlich nicht die allgemeine Lösung zu sein, mit der wir tatsächliche Intelligenz erreichen werden.
Ob wir jemals tatsächliche Intelligenz künstlich erzeugen können ist ja auch noch vollkommen offen. Dafür müssten wir erst einmal wissen was genau Bewusstsein / Qualia und wie dieses entsteht. Und damit will ich nichtmals in die Metaphysik Ecke. Alleine wenn das Bewusstsein auf quantenmechanischer Ebene entsteht wie Sir Roger Penrose postuliert, wird es uns wahrscheinlich unmöglich seien die entsprechende Hardware hierfür zu bauen.
@Doktor Whatson warum nicht nur eine gleiche Anzahl von gleichen Daten z.b. 50 schwarze und 50 weiße dann sollte das ja besser funktionieren. Bedeutet das weglassen von Daten so das alle Daten Sätze eine gleiche Anzahl haben.
Ich bin bei der ganzen Sache skeptisch. Nicht, weil ich die Biases der KIs bestreite, sondern weil überhaupt nicht klar ist, was eine "faire Bewertung" überhaupt bedeutet. Dass man nicht auf oberflächliche Merkmale wie Geschlecht oder Hautfarbe reduziert werden will, darauf können wir uns einigen, aber können wir die zwischenmenschliche und letzlich subjektive Entscheidungsfindung der Personalentscheider wirklich so herauskürzen, dass nur noch "objektive" Kriterien bleiben? Wollen wir das überhaupt? Und zu 9:50: Warum gelten Hobbies und der Wohnort hier nicht als Proxy?
Das wird in der Praxis noch sehr interessant werden... Neben den methodischen Fehlern beim Trainieren wird auch noch sehr spannend sein, wie stark sich die dogmatische Gleichmacherei aller Menschen in unserer Gesellschaft auf solche maschinellen Prozesse auswirken wird. Am Ende wird man auch aufpassen müssen, die Parameter nicht so zu verbiegen, dass man am Ende gar nicht mehr zwischen einem guten und einem schlechten Bewerber unterscheiden kann, weil man viele "heikle" Indikatoren (wie Name, Geschlecht, Herkunft, Hautfarbe, Alter, Religion usw.) aus vermeintlichen Gleichberechtigungsgründen zu egalisieren versucht.
@@fractofususmisrai237 Wenn man keine Kausalitäten darstellen kann, helfen Korrelationen evtl. auch weiter. Auf den konkreten Einzelfall bezogen muss das natürlich nicht zwangsläufig passen, für statistische Schlussfolgerungen mag das aber sicher trotzdem nützlich sein. Am Ende sind die Erkenntnisse doch so oder so Wahrscheinlichkeiten, die von den erhobenen Daten abgeleitet werden.
@@fractofususmisrai237 Das wird nicht immer möglich sein (z.B. aus Datenschutzgründen). Außerdem weiß man ja auch vorher nicht, welche Daten der Algorithmus für seine Bewertung heranzieht bzw. überhaupt für relevant erachtet und wie sie im Einzelfall gewichtet werden. Je mehr unverfälschte Daten vorliegen, desto besser kann die KI arbeiten. Wenn wir stattdessen an allen möglichen Ecken drehen und die Ergebnisse manipulieren, dürfen wir uns nicht wundern, wenn hinterher nur noch das rauskommt, was man haben möchte. Einem Menschen aus ideologischen Gründen alle möglichen Eigenschaften zu entziehen, die ihn zu dem machen, was er ist, halte ich für problematisch und nicht hilfreich. Wenn bestimmte Personengruppen je nach Geschlecht, Alter oder Kultur unterschiedlich sind, dann sollte man das auch entsprechend verarbeiten können, da es Bestandteil der Realität ist. Am Ende geht es doch eh immer nur darum, wie wahrscheinlich etwas ist. Das Interpretieren der ermittelten Daten durch den Menschen ist ja dann immer nochmal was anderes.
@@fractofususmisrai237 Sie geben Hinweise darauf wie gut eine Person in ein Team / eine Firma / eine Firmenkultur passt / sich integrieren lässt. In einer Firma arbeiten nun mal Menschen die miteinander interagieren und Menschen sind nie rein Objektiv und ohne Vorurteile und Kulturelle Unterschiede die sich eventuell nicht vertragen. Wie gut jemand sich wahrscheinlich Charakterlich / Kulturell in eine Firma einfügt ist auch eine gewisse Qualifikation für einen Job. Auch so wird bei Bewerbungsgesprächen nie auf rein Fachliche Eignung geschaut, sondern vor allem auch auf Sympathie und wie ein Kandidat vermutlich in ein Team / Abteilung / Firmenkultur passt. Da werden auch Kandidaten abgelehnt, die rein Fachlich gesehen perfekt währen, aber von der "menschlichen" Seite / der Interaktion mit anderen in einem Team nicht klarkommen / sich nicht einfügen werden können.
Minute 5:26 "Man kann Software eben nicht für alle und jeden perfekt machen. Minderheiten werden im Zweifel einfach seltener fotografiert und somit auch seltener in Trainingdatensets vertreten sein." BIPOC Menschen sind keine Minderheit, sondern machen den Großteil der Menschheit weltweit aus. Grund für die mangelnde Datenlage ist nicht, dass BIPOC Menschen weniger fotografiert werden, sondern schlicht, dass sie in Trainingsdaten oft nicht abgebildet sind.
Ich denke, dass das größte Problem ist, dass bei dem ganzen Konzept Oberflächlichkeiten im Vordergrund stehen z.B "schreibt er/sie wie andere angesehene Mitarbeiter?" usw. Das ganze Konzept ist nicht objektiv und kann erst dann objektiv werden, wenn jeder eine Art "Leistungsüberwachung" besitzt, also das Jemand der sich bewirbt dann eine Art Datei besitzt, wo der neue AG die Leistungen beim alten AG einsehen kann (z.B wie viel Rechnungen pro Minute hat er/sie durchschnittlich geschrieben, Krankheitstage, wie viele Kundenaufträge konnte er/sie bei Beratungen akquirieren usw.) und somit wirklich das Individuum im Vordergrund steht. Denn am Ende gilt das "Ähnlichkeitsprinzip" bei allen, Schwule stellen lieber Schwule ein, Frauen lieber Frauen und Leute mit Migrationshintergrund lieber andere mit Migrationshintergrund und das ist die traurige Wahrheit - So lange wir keine Instrumente schaffen die Objektivität zu lässt wird immer Subjektivität die Realität sein und die Realität ist auch das viele top ausgebildete junge weiße Männer das Land verlassen, weil sie durch die ganzen Quoten strukturell diskriminiert werden und im Ausland als gern gesehene Fachkräfte empfangen werden.
7:55 wenn es die Frauenquote gibt welche männliche Kandidaten werden hierfür vom Anfang an ausgeschlossen? Oder versucht man sich nur auf Qualifikationen zu selektieren? Dass die Bewerber kein Geschlecht angeben oder das es anders gefiltert wird?
Ich schätze Mal wenn der Mensch schon in seinen Urteil nicht fehlerlos ist. Wie kann da eine Maschine es besser machen bzw eine künstliche Intelligenz? 😷😷😷🤔🤔🤔
Von künstlicher Intelligenz sind wir offenbar noch Lichtjahre entfernt. Leider gilt das nicht für künstliche Dummheit. KI sollte momentan also KD heissen. Ohjeh. Aber wir bleiben dran.
Ach das macht das Institut bei dem ich morgens auf dem Weg zur Schule vorbei fahre xD. Wegen den Max-Planck-Instituten braucht der Bus seit 3 Jahren 4 Minuten länger zur Schule😂.
Tja, dann sollte man sich mal fragen warum die Hautfarbe beim lernen von künstlichen Intelligenz an eine Rolle spielt und im Datensatz vorhanden ist.. aber da sind die Ammys auch selber schuld wenn ein Richter wegen der Hautfarbe diskriminierende Gerichtsurteile fällt
Warum wundert es mich jetzt nicht das die Amis in ihrer Gesichtserkennungssoftware keinen normalisierten Datensatz genommen haben. Für viele Algorithmen ist es nicht hinreichend aber absolut notwendig, den Trainingsdatensatz gleichmäßig der Merkmale auszulegen. Sprich die kleinste Minderheit die ich unterscheiden möchte bestimmt die Anzahl an Einträgen für alle Klassen. Generell kann ein Bias auch eine gewünschte bzw besser gesuchte Größe sein. Wir setzten sehr einfache Modelle der KI ein, man könnte auch statistische Auswertung zu sagen, um den Einfluss bestimmter Größen in der Produktion auf die Qualität des Produktes bestimmen zu können. Ein sehr banales Beispiel wäre Temperatur. Ist es an dem Tag warm wird sich das Material ausdehnen. Messe ich eine Länge wird das Bauteil im Bias sehr wahrscheinlich zu klein sein, weil es sich danach abkühlt und dabei schrumpft. Der Bias einer KI, sofern er den erkannt wird, erlaubt es ein Problem tiefer zu analysieren.
Man nennt das nicht „bias“ sondern „Voreingenommenheit“ oder „Vorurteil“. Machine learning, background, performen- das letzte ist nicht mal mehr Englisch…. Manchmal frage ich mich, wieso heute Deutsche ihre eigene Muttersprache nicht mehr beherrschen.
In informatischen und wissenschaftlichen bereichen gibt es deshalb viele englische begriffe, weil englisch schlicht und einfach die sprache der wissenschaft ist. artikel, dissertationen und studien werden fast ausschließlich in englisch verfasst, weshalb bestimmte schlagworte, die in denjenigen kontexten eine bestimmte bedeutung erhalten, in andere sprachen mit jener vertieften bedeutung anhand des kontextes übernommen werden. so tief ist das nicht. selbst wenn - sprache entwickelt sich weiter. dass wörter von einer sprache in eine übernommen werden ist nicht ansatzweise neu.
Das ist alles sooo vorhersehbar worauf das abzielt. Die Daten gefallen den gewissen Leuten nicht u. deswegen müssen sie geändert o. die Regeln so weit angepasst werden das sie einem gefallen. Die Realität wird dabei gekonnt ausgeblendet. Den die ist ja „diskriminierend“. Wenn ich schon dynamisches Regelwerk oder Moving Boxes höre, dann könnte ich kotzen. Man sieht also nur das was man sehen will. Man setzt nur die Regeln durch die dem heutigen bunten narrativ gefällt. Peopel of color müssen bevorzugt werden weil sie immer diskriminierend werden. Das genau dies also zur Bevorzugung der letztgenannten Gruppe gehört, das interessiert diese Leute nicht, den das passt nichts ins Weltbild. Als ganz ähnlichen Fall kann man den KI Schönheitswettbewerb sich mal zu Gemüte ziehen.
Ich sehe ehrlich gesagt gerade nicht das Problem Es geht darum, dass KIs aufgrund falscher bzw zu wenig Daten falsche Schlüsse auf Kosten der schwarzen Bevölkerung ziehen Nicht mehr und nicht weniger, keiner redet hier davon, dass sie bevorzugt werden sollen
Mit diesem Kommentar zeigst du, dass du KEINE AHNUNG vom Thema hast. Du gehst davon aus, dass statistische Annahmen, Modelle etc. von vornhinein perfekt sind. Das ist aber niemals der Fall. Du wirst immer gewisse Verzerrungen finden. Bei JEDER statistischen Analyse (auch bei den einfachen) wird IMMER eine Korrektur vorgenommen um gewisse Fehler herauszurechnen. Aus deinem Kommentar kann ich ebenfalls herauslesen, dass du den Unterschied zwischen Korrelation und Kausalität nicht verstanden hat.
@UCtlNt05mqX7Z142NplwldxQ schön beschrieben, du willst nur sehen was du sehen willst 👌 Uuuuuuund da löscht er seinen Kommentar Hast selbst bemerkt wie dumm deine Aussage ist?
@@ikarus605 ich habe das so verstanden, dass er der Meinung ist dass schwarze gegenüber weißen systematisch bevorzugt werden sollen Und das ist einfach Unsinn
Das mit der Objektivität ist so eine Sache... Es gibt keine absolute Objektivität. Selbst wenn die KI nur auf die Noten schaut, liegt darin schon ein Fehler, da Noten selbst schon relativ Subjektiv sind. Noten werden auch von Menschen vergeben. Der eine bewertet strenger, der andere Lascher oder würfelt (grüße an Laschet (Pun intendet)). Auch so fließen bei Noten bei Lehrern auch noch persönliche Sympathien mit ein. Genau so wie das Niveau der Prüfungen je nach Bundesland auch wieder unterschiedlich ist. Wenn ich jetzt die Information über das Bundesland mit einfließen lasse wo jemand her kommt, ist das dann auch wieder diskriminierend? Den Kulturellen Hintergrund dagegen auszuschließen ist auch falsch. Der hat genau so einen Einfluss auf die Wahrscheinlichkeit ob jemand in ein Team / eine Firma / eine bestimmte Firmenkultur passt. Je nach Kultur, gibt es unterschiede was Erziehung, Bildungsstandard, etc... anbelangt. Hat also statistisch auch Relevanz ob jemand als Bewerber in eine Firma passt oder nicht. Man füttert hier praktisch immer eine KI mit rein Subjektiven Informationen.
Ich hoffe sie fangen bald Mal an Schulen objektiver zu machen. Dafür bräuchte man ja nicht Mal ki am Anfang. Es wäre schön viel besser würde man Aufsätze oder andere arbeiten auf dem Laptop tippen und anonym an den Lehrer zur Kontrolle übergeben. Das würde den Rassismus in deutschen Schulen schon drastisch senken, da die Lehrer einfach nicht wüssten von wem die Antworten kommen.
Minute 5:26 "Auf der anderen Seite kann man Software eben nicht für alle und jeden perfekt machen. Minderheiten werden im Zweifel einfach seltener fotografiert und somit auch seltener in Trainingsdatensets vertreten sein." Du sprichst im Satz vorher von "schwarzen" Menschen. BIPOC Menschen sind keine Minderheit, sondern machen den Großteil der Weltbevölkerung aus. Der Grund, dass sie nicht in Trainingsdatensets repräsentiert sind, ist nicht, dass sie seltener fotografiert werden, sondern, dass sie für solche Datensets einfach nicht berücksichtigt werde, da diese Daten meist von weißen Menschen konstruiert und angelegt werden.
4:53 A haha ha. Ja lol. 😀FAIL! Nein, kann man nicht. Bilder schwarzer Frauen aufzutreiben, die datenschutztechnisch* safe sind, ist noch das kleinere Problem. Aber wer tagged die Bilder? Irgendwelche Praktikaten müssen das Bild erstmal vorbereiten. Sonst hat man das Henne-Ei Problem. Außerdem braucht man wirklich sehr sehr sehr viele Bilder. *Würdest du wollen, dass dein Gesicht ungefragt in einer anonymen Datenbank auftaucht?
Halt eben nur ein "besserer Lichtschalter" ^^ Warum man den Namen "Intelligenz" für ein elektronisches Reizreaktionsverfahren verwendet, ist mir schleierhaft.. Etwa so wie Smartphones ja auch nicht smart sind (ausser man wölle damit sagen "kleines Telefon", aber das smart soll sicherlich für etwas anderes stehen, lol)
2:08 ich bin nicht rassistisch, aber falls leute heufiger kriminell sind, egal ob das auf grund fehlender Integrations politik oder mangelndem Einkommen, dann muss eine Ki das berücksichtigen
Vielleicht sind sie Gar nicht häufiger kriminell. Beispiel Waffen oder Drogen. Die Bundespolizei sucht in einem Zug danach. Die Polizei kann gar nicht alle Personen kontrollieren. Das darf sie auch gar nicht!!! Deshalb gehen die nach Nasenfaktor und durchsuchen immer ähnliche Personen Gruppen. Rentner und ordentlich gekleidete Personen werden gar nicht erst kontrolliert. Je schicker die Kleidung, desto besser die Anwälte. Aus Bequemlichkeit werden nur die weichen Ziele kontrolliert. Ich kenne genug Leute die verbotene Waffen immer dabei haben. Die werden auch nie kontrolliert. Ich schätze ich hätte bei so einer Kontrolle die höhere Trefferquote. Denn ich würde die üblichen Verdächtigen nicht durchsuchen. Die wissen nämlich das sie kontrolliert werden und haben deshalb meistens nichts dabei. Dürfte die Polizei alle Personen filzen, hätten wir eine ganz andere Statistik und Trainingsdaten für eine KI. Die Ursache für Gewalt gegen die Polizei kennen nur die Täter. Für die Täter ist das Handeln der Polizei die Ursache. Der Grund warum die Polizei das verbotener weise macht liegt daran das Polizisten fast nie dafür bestraft werden. Weil es juristisch fast unmöglich ist einen Polizisten zur Verantwortung zu ziehen, gibt's was aufs Maul. Die Logik will nur niemand verstehen und so werden Polizisten noch besser geschützt. Das führt zu noch mehr Gewalt einer bestimmten Gruppe und verzerrt somit die Daten Grundlage. Wie soll eine KI handeln, wenn der optimale Weg verboten ist?
Also muss man erst die Rasse erfassen, dem Algorithmus sagen das dass unwichtig ist, um den Algorithmus antirassistisch zu machen. Der Algorithmus beweist unterschwelligen Rassismus. Aber Mensch ist Mensch
@@meinacc5022 Lass dir keinen Quatsch erzählen. Dieser Kanal ist nicht bei Funk, demnach geht auch kein einziger Cent an Funk. Wären Cedric und sein Team bei Funk würden sie sich statt Werbung und "Spenden" durch die Rundfunkgebühren ("GEZ") finanzieren.
Die erste Liebe, sagt man mit Recht, sei die einzige, denn in der zweiten und durch die zweite geht schon der höchste Sinn der bedingungslosen Liebe verloren. Wenn man Liebe nicht bedingungslos geben und nehmen kann, ist es keine Liebe, sondern ein Handel, aus dem leider immer mehr Kinder entstehen müssen. Die Äpfel fallen selten weit vom Stamm. Viele Leute trennen Geschlechtsverkehr und Liebe, dabei ist Geschlechtsverkehr die höchste körperliche Geste, seiner Frau oder seinem Mann zu zeigen das man Sie oder Ihn liebt. Daraus sollten Kinder entstehen. Sie haben doch von jedem Mann behauptet das er ihre Nummer 1 ist, warum haben Sie wohl mit ihnen geschlafen? Aus Ehe & Familie werden leider immer mehr temporäre Gemeinschaften! Bei so manchen Menschen gehört Geschlechtsverkehr zum Kennenlernen dazu, manchmal bekommen sie noch ein Kind vom zukünftigen Wochenendpapa. Ich liebe dich sind nur Worte, die sagen sich alle am Anfang, liebe ist eine Tat, und sie findet auch aber nicht nur im Bett statt. Die erste Liebe, die ins Herz einzieht, ist die letzte, die aus dem Gedächtnis schwindet. Wer vor der Zeit beginnt, der endigt früh. Ich könnte mich nicht in eine Frau verlieben die freiwillig mit einem anderen Mann geschlafen hat.
Ich verstehe nicht ganz, wieso diverse Gruppen besser performen. Ich persönlich habe noch nie einen unterschied gemerkt, wenn mein Partner weiblich, männlich oder eine andere Ethnie hatte.
Danke für dieses gut erklärte, mit viel Aufwand bestückte, interessante und informative Video :D
Gleiches mit gleichem bekämpfen? Wie in der Homöopathie? Es macht alles Sinn!!!
Mein Hoodie und T-Shirt von euch ist heute endlich angekommen, sehen super aus und passen wie angegossen. Gleich mal dieses super gemachte Video im neuem Hoodie geschaut :) , macht weiter so.
Achtung: Kalauer!
Um Kühe zuverlässig zu identifizieren, braucht man im KI-System eine Moo-wing Box ;)
Aber nun im Ernst: Klasse Video!
Der ist gar nicht Mal so schlecht. 😷😷😷💪💪💪
Also versucht man Diskriminierung mit Diskriminierung zu bekämpfen...
Jup und es funktioniert
@@Rexithedud inwiefern? Die Gesellschaft war in den letzten 40 Jahren nie so stark gespalten wie heute und "positive" Diskriminierung ist zwar ein kleiner Grund aber immerhin ein Grund
Merke:. KI's sind unglaubwürdig, solange deren Algorithmus zu sehr auf "allgemein Richtlinien" basiert.
Sehr gutes Video, wie du schon angesprochen hast, ist die Blackbox bei KI ein großes Problem. Da kann dem Entwickler nicht eben sagen: "Debug das mal schnell".
Und es gibt auch ein Unterschied, ob nur Bilder, nur Text oder ein Mischmasch analysiert wird. Das ist alles gar nicht so einfach und wird noch min. 1 Dekade nach sich ziehen.
Merci für das Video! Daten, oder besser gesagt, schlechte Daten sind ein grosses Problem der zwei dominierenden Themen unserer Zeit!
Sehr informatives und interessantes Video 👍🏻 danke 👈🏻
Die Intervention auf Proxies bietet alle Möglichkeiten der Manipulation. Was dann als "Fairness", also "Gerechtigkeit" eingebaut wird ergibt sich aus den Vorgaben der Legislative - Politiker
Ich glaube das ist noch viel komplexer aber sehr anschaulich erklärt
Sehr interessant! Danke!
Bei AI und Verantwortung finde ich das Trolley Problem sehr interessant! Wenn ein selbstfahrendes Auto in die Situation kommt, in der es entscheiden muss: Überfährt sie das Kind, das gerade auf die Straße gesprungen ist, oder versucht sie ein Ausweichmanöver mit dem die AI den Fahrer gefährdet? Was ist moralisch vertretbarer? Entzieht sich der Fahrer der Verantwortung? Wer hat Schuld für den Unfall?
5:48 das weniger Frauen fotografiert werden halte ich eher für ein Gerücht eher sind männlich diejenigen die seltener fotografiert werden.
Frauen sind eher im Bereich Mode, Beauty, (Foto) -model, tätig.
Weniger im technischen Bereich
Es geht nicht darum wer mehr Fotografiert wird sondern welche Fotos in das Daten Set der ki "hereingefüttert" werden.
Und ich nehme Mal dass die Fotos aus den Daten Set Menschen in natürlichen Situationen zeigen soll und Menschen die in der Model Szene arbeiten in solchen Fotografiert werden
Tbh keine Ahnung von was ich rede
@@BobAndrews69 Das heißt ja dann, dass man aber nicht nur Bilddaten von Personen hernehmen kann, von denen es eben schon viel Material gibt, sondern eben auch mal gezielt Leute für solche Studien suchen muss.
Ist doch völlig egal wer mehr fotografiert wird. Wenn man als Hersteller der Software möchte, dass sie richtig funktioniert, dann sollte man ihr halt die nötigen Daten geben lol.
Cow- salität?
Du sagst Kausalität und zeigst auf das Video mit der Kuh. Das war witzig.
Cowsalität sozusagen :)
Ja das war witzig. Ich musste deswegen auch kurz in den Keller gehen.
Du bist wunderbar! ❤️
Du bist wunderbar! 😁
@@DoktorWhatson YOU'RE breathtaking
Endlich Dr Watson Videos gucken und dabei den Persevierence Rover auf der Brust tragen!
Danke für eure Mühen, Hammer Video
Super Video, vielen Dank!
Perfekt mit dem Doktor Whatson Hoodie dieses neue Video gucken 😊🥰😍
Fotografiert mehr Frauen?
Ich kann mir nicht vorstellen das es mehr Bilder von Männern als von Frauen gibt, wen hier die Privaten mit eingerechnet werden.
Wahrscheinlich gibt es weit mehr als 10 mal mehr Bilder von Frauen als von Männern.
Es kommt drauf an welche Bilder man auswählt und nicht wie viele es gibt.
Ja die Anzahl der Fotos ist definitv nicht das Problem nur die Auswahl im Datensatz. Allerdings denke ich auch dass die dunkle Hautfarbe aus technischen Gründen mehr Probleme macht. Es gibt z.B. weniger erkennbare Details bei schwarzer Hautfarbe. Es braucht dafür deutlich höhere Dynamic Range.
Wie sexistisch von dir! Du frauenhasser!🤪🤣🤣🤣
Ein schönes Erklärungsvideo, dass die Problemstellung der Anwendung von KI im Personalbereich gut darstellt. Allerdings liegt das Kernproblem der Betrachtung von Bewerberdaten nicht nur in der bereits durch die Datenauswahl subjektivierten Bewertung, sondern am fehlerhaften Grundprinzip, dem sich selbst erfahrene Recruiter nur selten widersetzen: Der simplifizierte Match zwischen Qualifikation und Aufgabenstellung in einer 2-dimensionalen Betrachtung, welche die umgebenden Variablen - insbesondere in Form der mitbeteiligten Kolleginnen und Kollegen idR komplett(!) außen vor lässt. Anders gesagt: Das psychologische Profil - und hierbei insbesondere dessen sozialen Komponenten - sind für die erfolgreiche Integration neuer Mitarbeiter von erheblicher Bedeutung und werden nur in den seltensten Fällen angemessen berücksichtigt. Carl Gustav Jung hat dies schon vor über 100 Jahren erkannt und in seinen Archetypen verarbeitet. Welche Rolle nehme ich in meinem Kollektiv ein, wie interagiere ich mit meinen Mitmenschen und welche Konstellationen sind für welche Aufgabestellung optimal geeignet?
Mit einem geeignetem Test (16 Personalities z.B. liefert gute Ansätze) und entsprechend programmierten Algorithmen könnte man Teams zusammenfügen, die hinsichtlich ihrer Effizienz und ihres Zusammenspiels das heutzutage immer noch Übliche Zusammenwürfeln völlig in den Schatten stellen würden, und dies sogar bei konsequentem Ausschluss von Daten bezüglich der Herkunft bzw. Ethnie. Grundlagen hierfür gibt es genug, man kann sich z.B. an den Erfahrungen und Ergebnissen bedienen, welche die Entwicklung des Mannschaftssports seit vielen Jahren prägen und die Team- bzw. Rollenfähigkeit von Bewerbern als wichtigsten Entscheidungsfaktor etabliert haben.
Sehr lehrreiches Video
wow du hast richtig viel abgenommen! Respekt!
Was hat die Haftlänge durch Richter mit der Rückfall Quote zu tun?
Wenn schwarze Menschen zu längeren Haftstrafen verurteilt werden, haben sie eine geringere Chance (weniger Zeit) rückfällig zu werden, als weiße Menschen die schneller aus dem Gefängnis wieder freikommen. Allerdings wollte die Frau wohl argumentieren, dass die längeren Haftstrafen zu einer höheren Rückfallquote führen. Von daher passte da die Logik nicht ganz.
Ist sowieso in großen Teilen fragwürdig wie diese Diskussion geführt wird. Grundsätzlich weiß man erstmal dass lange Haftstrafen mit schwarzer Hautfarben korrelieren. Jetzt kann man da natürlich Rassismus annehmen, man kann aber genauso gut zu dem Schluss kommen dass Menschen mit schwarzer Hautfarbe brutaler oder rücksichtsloser sind, so werden in den USA ja auch überproportional viele Straftaten von Schwarzen begangen.
Ich will damit nicht sagen dass Kriminalität irgendwie genetisch bei dunkelhäutigen Personen höher ist. Aber der Punkt ist ob Rassismus oder sinnvolle Gründe hinter dieser Korrelation stehen ist nicht erkennbar.
Ich muss also nun subjektiv entscheiden welche welche Faktoren in mein Modell hinein zählen sollen. Wenn dann Faktoren übrig bleiben die immer noch mit der Hautfarben korrelieren muss ich die rausnehmen oder aktiv gegensteuern.
Es wird also auch nicht mehr objektiv algorithmisch gearbeitet sondern subjektiv. Das kann selbst wieder sehr gefährlich sein. Mindestens so sehr wie ein möglicher Bias in den Ursprungsdaten.
10:30
Ich kann kaum glauben was ich da höre also nur nochmal für mein Verständnis.
Man findet also, dass Variablen wie beispielsweise Geschlecht vorhersagen wie gut ein Bewerber für einen Job geeignet ist (z.B. weil Männer mehr Muskeln haben sind Sie oft bessere Möbelpacker). Entsprechend ist das Geschlecht ein guter Prädiktor dafür, ob jemand einen 100kg Tisch heben kann oder nicht. Dann löscht man diese Variablen, weil einem nicht gefällt, dass Männer hier aufgrund ihres Geschlechts einen Vorteil haben. Da der Prädiktor Geschlecht aber so stark ist nimmt der Algorithmus dann andere Variablen die hoch mit dem Geschlecht korrelieren. Weil einem das ebenfalls nicht gefällt nimmt man die stärke des Effekts und "korrigiert" um diesen Effekt... Also Frauen kriegen z.B. einfach einen höheren Eignungsscore, obwohl weniger Fähigkeiten vorhanden sind.
Die Konsequenz daraus ist, dass ich nicht nur aktiv und willentlich diskriminiere sondern ebenfalls eher einen ungeeigneten Kandidaten bekomme.. genial
das problem ist, dass man davon ausgeht, dass die daten alt sind und deswegen dinge wie nationalität grundlos wertet, wegen diesem problem versucht man dass zum beispiel nicht IT skills nicht zu werten, weil der datensatz kein fehler hat
Ja ist grundsätzlich richtig. Ich halte es auch für mindestens genauso problematisch künstlich ideologisch Dinge zu ignorieren wie der Bias in Ausgangsdaten selbst.
@@lal12 das stimmt
Ich hätte mal ganz gern gewusst ob die Statistik auch gesagt hat, ob die jüngeren/schwarzen dort auch öfter wierderholungstäter waren, wenn ja gab es nie einen Fehler, sagt komischerweise nur nie jemand, sus.
Und KI != Maschinenlerning!
Du kannst ab und an nicht predigten was dein Netz sagt, selten wenns gut ist, but still.
Was ne Künstliche Intelligenz (Die wir noch lange nicht haben) macht könntest du als "Schreiber/Programmierer", genauso gut einschätzen maximal, wie du einen Fremden auf der Straße einschätzen kannst.
Sehr spannendes Video 👍
Man muss aber auch aufpassen, dass man nicht faktoren rausnimmt, die aber soch einen Einfluss haben.
Z.B. als Bauarbeiter hat man als Mann nen klaren Vorteil, weil Männer halt natürlicherweise muskulöser sind. Bei einer hypothetischen "Bauarbeiterbewerbung" würde also das Geschlecht doch eine Rolle spielen.
Es gibt aber einen Unterschied darin, ob jemand nicht genommen wird, weil er schwächer ist oder jemand nicht genommen wird, weil er zu einer Gruppe gehört die im Durchschnitt schwächer ist. Also spielt das Geschlecht korrelativ eine Rolle, aber nicht kausal. Am Geschlecht sieht man nicht, wer stärker ist, sondern wer wahrscheinlich stärker ist. Das Problem bei KI ist, dass dieser Unterschied nicht so einfach zu überbrücken ist, weil die in erster Linie auf Korrelation basieren.
@@pastusmarcus2249 hast schon irgendwie recht, aber andererseits ist das Geschlecht ja schon kausal verknüpft. Wegen des Geschlechtes ist derjenige _wahrscheinlich_ stärker.
Deine Kritik kann man halt auch auf valide Punkte übertragen. Leute, die schon mal in der IT gearbeitet haben, sind im Schnitt besser für einen anderen IT job geeignet, *aber nicht zwingend*. Ist genauso ein Faktor, der die Wahrscheinlichkeit der Tauglichkeit in der IT erhöht wie das Geschlecht für die Tauflichkeit am Bau.
@@kunai9809 Mhh, ja. Ich hab das Gefühl es kommt drauf an, welches Ziel man verfolgt. Ist das Ziel, man möchte fair zwischen geeigneten Personen wählen, dann wäre das nur Korrelation. Möchte man aber wissen, ob eine Frau oder ein Mann wahrscheinlich besser für den Job geeignet ist, wäre es Kausalität. Und in deinem Beispiel geht es doch darum zwischen einem Mann und einer Frau zu wählen, was bedeutet die Daten würden nur korrelative Ergebnisse liefern.
Hätte man deren Kraftprofil, würde es wunderbar funktionieren. Also sind die Daten wieder schuld (oder derjenige, der sie ausgewählt hat).
@@pastusmarcus2249 abstrahiert geht es ja darum: Attribut A ist wichtig für den Job. Attribut A korreliert positiv mit Attribut B. Attribut B an sich ist aber unerheblich für den Job. Ist es jetzt vertretbar, Bewerber nach Attribut B zu bevorzugen?
Wenn man Zugriff auf Attribut A hat, ist das natürlich nicht nötig oder ggf. sogar hinderlich. Wenn aber A so etwas abstraktes ist, wie die Eignung für einen Job, was man gar nicht richtig quantifizieren kann, dann finde ich es persönlich durchaus gerechtfertigt, auf B zurückzugreifen.
@@kunai9809 Ja, aber nur wenn der Zugang zu den Informationen nicht gegeben ist. Und darum geht es ja gerade. Sollte der Entwickler sich nicht darum kümmern, dass Attribut A festgestellt wird? Also mehr Informationen einholen, um eben A feststellen zu können. Denn stell dir vor du würdest nach B handeln und dann würde jemand sagen, du hättest A aber feststellen können, was dann?
Und ja wenn man auf A keinen zugriff hat, dann geht es ja nicht anders als zB B oder C zu nehmen.
Aber bei deinem beispiel wüsstest du, was ein besseres Attribut wäre und zwar die Kraft. Und wenn man das einfach ignorieren würde, dann wäre das nicht fair.
Lange nicht mehr geguckt, du hast krank abgenommen 👍👍👍👍
Solche KI's werden entwickelt um etwas zu vereinfachen. Welcher Entwickler würde denn eine KI mit unvollständigen Datensätzen laufen lassen, wenn die nicht die gewünschten Ergebnisse liefert. Das vereinfacht nichts und ist somit unbrauchbar, bis der Fehler behoben ist. Bisschen dramatisch dargestellt...
Hi Doktor Watson, ich kenne Dich schon länger: bist Du nicht damals bei Clixoom gewesen wenn dieser Krachten (bin mir über seinen Namen nicht mehr sicher) keine Zeit hatte?
Anyway: tolles Video, die ganze Serie ist klasse, Du erklärst es wirklich toll; ich bleibe mit einem Abo da obwohl ich schon so viele habe dass ich kaum noch durchblicke. Egal, schönes Wochenende
Sehr gutes Video!!!
Sehr interessantes Video, danke dafür!
Die Forschung zur "Fairen KI" führt mich zu folgenden Gedanken:
Nehmen wir 1000 Boxen und bitten 1000 Menschen jeweils in eine Box Ihre Stimme zu legen. (Die Leute sehen nicht wie die Box aussieht, stellen wir uns vor die sind verdeckt)
Nun nehmen wir an die ersten 300 Boxen haben mehr als 900 "Stimmen" erhalten, wenn wir nun zeigen würden das die ersten 300 Boxen Weiß sind und die letzten 700 Boxen schwarz -oder umgekehrt-, dann wäre ist ja rassistisch... dann würden die Forscher hingehen und den Algorithmus boosten damit eine gleiche Verteilung herauskommt (was in meinen Augen schon eine Verzerrung ist).
Am ende wird es passieren das Menschen anfangen entgegen Jahrtausendalter Erfahrung dinge zu tun nur weil irgend jemand versucht hat es "Fair" zu machen.
Spinnen wir weiter, stellen wir uns Vor das wir vielleicht in 30 Jahren feststellen werden (Achtung total verrücktes Beispiel, ich hoffe ihr versteht was ich meine):
Das Menschen die Schokolade von Firma X mögen und gerne Golf spielen dazu neigen Serienmörder zu werden, nun benötigt aber eine Firma Astronauten und Filtern diese Leute nicht aus. Weil das wäre ja diskriminierend?! Was passiert als nächstes? Werden wir versuchen Tiger/Löwen/ andere Raubtiere als Haustiere zu halten, weil es diesen Tieren gegenüber diskriminierend ist? dies nicht zu tun?
Übersehe ich irgendetwas oder bin der Einzige der das Problem sieht?
Eure/Deine Meinung interessiert mich :)
Man kann ja eigentlich so was wie machine-learning on the fly machen, also bei der Gesichtserkennung:Wenn man sich nicht anmelden kann und dann zmb den Code eingibt kann ja ansich das Programm natürlich gibt's dadurch viele weitere Probleme
Ich verstehe hier nicht unbedingt warum das "immer" ein Problem ist. Hautfarbe, Geschlecht, Herkunft, etc. mögen alle "rassistisch" aufgeladen sein, bieten aber in vielen Fällen tatsächlich informationen über die Eignung für einen Job. Im Video hier, wurde z.B. "rassistisch" festgestellt, dass "diverse Teams" besser performen als "weiße männliche Teams". Das mag (in vielen Fällen) auch stimmen, ist aber genauso "rassistisch" wie die umgekehrte Schlussfolgerung, dass in bestimmten Situationen "weiße männliche Teams" besser performen werden als "diverse Teams" (und ich bin 100% sicher, dass letztere Schlussfolgerung selbst bei "divers trainierten" Algorithmen trotzdem häufig auftritt). Im ersten Fall sucht niemand nach einen Grund für den vorliegenden "Rassismus", im 2ten Fall aber jedes Mal.
Selbstverständlich sind unvollständige Trainingsdaten oft für fehlerhafte Vorgänge verantwortlich, aber selbst wenn die Trainingsdaten "alles" beinhalten kommt es zu Situationen in denen wir auf Teufel komm raus Rassismus/Sexismus/Sonstigeismus suchen und auch finden, obwohl einfach keiner da ist.
"Wenn Geschlecht oder Herkunft einen Einfluss haben weiß die Firma, dass ihr Programm Murks ist". Und was ist jetzt, wenn das Programm kein Murks ist, sondern statistisch gesehen polnische männliche Personen in diesem Job schlechter abschneiden, und der Algorithmus deshalb lieber diverse Personen aus Schweden einstellt? Alles was hier Murks ist ist die Argumentation. Ohne die dahinterstehenden Trainingsdaten/Statistiken zu kennen kann man hier NICHT beurteilen ob das Programm seinen Job "richtig" macht oder nicht.
Guter Kommentar. Das hätte in dem Video noch besser erklärt werden können
Wie ich Leute aussuchen würde?
Ich schaue mir mein Team an, sehe die Stärken und Schwächen auf den jeweiligen Feldern.
Nehmen wir einmal Betreuung von Menschen.
Was muss die Betreuungskraft tun:
- Gespräche führen können
- Botengänge
- Arztbesuche
- Essen anreichen (streng genommen nicht, aber findet dennoch überall statt und halte ich für sinnvoll, da auch das Essen ein Teil unseres Leben ist.)
- Einzelbetreuung (Spazieren gehen, Einzelgespräche führen, da sein ohne Aktivität, ...)
- Gruppenbetreuung, also Aktivierungen für diverse Felder gestalten.
- Feste organisieren
An einem Tag kannst du Ideal abgedeckt und ohne Arztbesuche und Botengänge zum Beispiel 6 Aktivierungen tätigen. Sagen wir 3 Gruppenaktivierungen und 3 Einzelbetreuung. Du kannst auch 2 Gruppenaktivierungen gleichzeitig tätigen lassen an verschiedenen Orten zum Beispiel bei schlechtem Wetter oder in der kalten Jahreszeit, wo die meisten Menschen nicht hinaus gehen möchten.
Also, neben diversen Basics zu denen auch die Empathie gehört, brauchst du Gruppenaktivierungen die eben sehr divers sind, dies bedeutet zum Beispiel auch eine Kategorisierung der Themenfelder, was machst du für Aktivierungen?
- kognitive und Gedächtnis in Anspruch nehmende Aktivierungen
- motorische Aktivierungen, Bewegung und Sport
- musikalische Aktivierungen
- künstlerische Aktivierungen
- sensitive Aktivierungen (fühlen, hören, sehen, riechen, schmecken)
- thematische Aktivierungen
- kulturelle Aktivierungen (Zeitung, Weihnachten, ...)
- Phantasie anregende Aktivierungen
- Aktivierungen mit sozialer Interaktion
...
Da haben wir natürlich Aktivierungen die in mehrere Bereiche überlappen können und auch Bereiche die nur einen Bereich abdecken.
Ich zum Beispiel bin ganz stark drin bei kognitive und Gedächtnis, da brauchst du eben nicht noch 2 weitere die darin ihre Stärken haben.
Eine Schwäche bei mir wäre die musikalische oder die künstlerische Aktivierungen. Da hole ich lieber solche Leute ins Team. Als Beispiel wäre in unserem Team die schwäche der musikalischen Aktivierung, diese sollte gefördert werden. Wenn also einer sich darauf bewirbt und angibt, musikalisch bewandert zu sein, dann ist dies ABSOLUT willkommen.
Also man soll jemanden einstellen, der das kann was noch gebraucht wird?
Das wird den Rekrutierungsprozess revolutionieren!
@@blackforestwarrior Ganz einfach ausgedrückt, stell dir vor, du bist Erzieher oder Erzieherin. Wieso soll es dir wichtig sein, dass dein Geschlecht dort stärker vorhanden ist, wenn es das dominierende Geschlecht ist? Keines! Männliche und weibliche Vorbilder sind nun einmal notwendig.
Schauen wir weiter und sehen uns die Stärken an, wenn du ins Kunst und Basteln eine Niete bist, dann freust du dich, wenn andere Personen dies übernehmen können, die darin ihre Stärke sehen.
Ich glaube daran erkennst du ganz gut, wohin meine Denke geht. Denn zum Einen kannst du Spezialisierungen tätigen und zu gleich erhöhst du damit neben der eigenen Lebensqualität, doch durch gewisse Tätigkeitsfelder nicht durch quälen zu müssen, die Qualität der jeglichen Tätigkeitsfelder.
Es ist ja auch schon wissenschaftlich belegt, dass genau dieses Auswahlverfahren deutlich mehr Sinn ergibt und mehr Erfolg verspricht, weil du hier eben viele Menschen hast die dahingehend aus verschiedene Perspektiven diese einwerfend zu den besten Ergebnissen kommen können, oder auch weil stets die Stärken ausgespielt werden können und so die Schwächen kaschiert werden.
Du holst dir ja auch nicht unbedingt die 11 besten Fußballspieler, weil du dann merkst, dass es keine gute Mannschaft ergibt. Mal von der Position abgesehen, gibt es ja gewisse Stärken und Schwächen und Vorstellungen der Art und Spielweise und Philosophie die es bestimmen werden.
@@ManuelFalke ich habe Dich schon verstanden. Du sagst mit ganz vielen Worten, dass man den nehmen soll, der das kann was gebraucht wird.
Schöne Einleitung!
Toller Beitrag!! 🤗🤗
Ich liebe den Hintergrund
Ich bin sicher irgendwann wählt KI eine wunderbare schwarze Frau auf deine stelle bei Rundfunk.
das thema "erklärbare ki" würde mich genauer interessieren. könnt ihr dazu irgendwelche bücher empfehlen? (...und damit meine ich jetzt durchaus auch so richtige lehrbücher auf universiätsniveau mit der vollen mathe-dröhnung)
Danke!
Also:
Es ist so eine Sache und ja, bei Bewerbungen, oder Bestimmung des Strafmaßes ist es eine kritische Sache, das verstehe ich schon. Aber! Man muss auch sagen, dass dann hier eher Ideologie eine Rolle spielt, was an sich auch okay ist. Denn man will Veränderung und die erreicht man nur, wenn man bestehende Muster aufbricht.
Bei Hobbies: Ja das ist so ne Sache, aber da könnte man schauen, welche kausalen Zusammenhände es gibt und diese Punkte sepperat betrachten. Jemand der Ski Fährt muss Geld haben, jemand mit Geld hatt eine andere Bildung gehabt, wird also warscheinlich auch gewisse Dinge besser machen. Was da eher das Problem ist: Wie wir denn definiert WAS gut und was schlecht ist? An dem wer eingestellt wird? Wenn es so ist, dann ist das ganze nur eine art Zusammenfassung dessen, was bisher so gemacht wurde. Oder soll geschautr werden, wie erfolgreiche Unternehmen gehandelt haben? In wieweit erfolgreich, unter welchen Bedinungen? Diese ändern sich ja.
Aber nehmen wir mal das Strafsystem: Ein System, dass auch rassistisch erkennt wo eine primäre Gefahr droht, das ist okay, denn hier fehlt einfach die Zeit. Aber auch das muss dann berücksichtigt werden. Wenn Schwarze wegen dem System eher kontrolliert werden, dann wäre es wichtig wieso. War die Kotrolle wegen dem Faktor "Möglicher Diebstahl" empfohlen, die Person hatte aber etwas zu kiffen dabei, dann sollte dies vom System anzegeigt werden und dann dementsprechend ignoriert werden. Wenn sie wärem sonst vom System ja erst garnicht erfasst worden.
Auch beim Strafmaß: Da sind Schwarze anfälliger um wiederholungstäter zu sein, was oft an deren gesellschaftlichem Umfeld liegt und da könnte man schauen. Wenn die Person in so einem Umfeld ist, wäre ein Angebot gut sie da heraus zu holen. Bleibt er in dem gleichen System, dass ihn dazu gebracht hatte krimminell zu werden, dann ist nunmal die Warscheinlichkeit hoch, dass er Rückfällig wird. Ihn deswegen aber härter zu bestrafen, wäre ein Schuss nach Hinten.
Bewerbung bei Behörden : abgelehnt / Wieso? : Wir äußern uns nicht zu unseren Entscheidungen. Ahja, danke für nichts.
Wir äussern uns nicht zu unseren Entscheidungen
Mein Kopfkino:
Sachbearbeiterin: "Peter, nimm den Obersten 3tel der Bewerbungen und wirfs sie weg"
Peter "Aber die haben wir doch noch gar nicht angeschaut"
Sachbearbeiterin: "Ja, die haben Pech, und leute mit Pech können wir nicht brauchen..."
Danke
Ich glaube es ist insgesamt sehr verwirrend, dass du in den Videos fast immer KI und Machine Learning gleichsetzt. Machine Learning ist ja nur ein Teilbereich der KI. Deswegen würde ich mich freuen wenn du noch ein Video machen würdest in dem andere Ansätze zur KI vorstellst. Wie auch im Buch “Rebooting AI” dargelegt, scheint Machine Learning nämlich nicht die allgemeine Lösung zu sein, mit der wir tatsächliche Intelligenz erreichen werden.
Ob wir jemals tatsächliche Intelligenz künstlich erzeugen können ist ja auch noch vollkommen offen. Dafür müssten wir erst einmal wissen was genau Bewusstsein / Qualia und wie dieses entsteht. Und damit will ich nichtmals in die Metaphysik Ecke. Alleine wenn das Bewusstsein auf quantenmechanischer Ebene entsteht wie Sir Roger Penrose postuliert, wird es uns wahrscheinlich unmöglich seien die entsprechende Hardware hierfür zu bauen.
@Doktor Whatson warum nicht nur eine gleiche Anzahl von gleichen Daten z.b. 50 schwarze und 50 weiße dann sollte das ja besser funktionieren. Bedeutet das weglassen von Daten so das alle Daten Sätze eine gleiche Anzahl haben.
Ich bin bei der ganzen Sache skeptisch. Nicht, weil ich die Biases der KIs bestreite, sondern weil überhaupt nicht klar ist, was eine "faire Bewertung" überhaupt bedeutet. Dass man nicht auf oberflächliche Merkmale wie Geschlecht oder Hautfarbe reduziert werden will, darauf können wir uns einigen, aber können wir die zwischenmenschliche und letzlich subjektive Entscheidungsfindung der Personalentscheider wirklich so herauskürzen, dass nur noch "objektive" Kriterien bleiben? Wollen wir das überhaupt?
Und zu 9:50: Warum gelten Hobbies und der Wohnort hier nicht als Proxy?
Das wird in der Praxis noch sehr interessant werden...
Neben den methodischen Fehlern beim Trainieren wird auch noch sehr spannend sein, wie stark sich die dogmatische Gleichmacherei aller Menschen in unserer Gesellschaft auf solche maschinellen Prozesse auswirken wird.
Am Ende wird man auch aufpassen müssen, die Parameter nicht so zu verbiegen, dass man am Ende gar nicht mehr zwischen einem guten und einem schlechten Bewerber unterscheiden kann, weil man viele "heikle" Indikatoren (wie Name, Geschlecht, Herkunft, Hautfarbe, Alter, Religion usw.) aus vermeintlichen Gleichberechtigungsgründen zu egalisieren versucht.
Sagen denn Name, Geschlecht, Hautfarbe, Alter, Herkunft, Religion etwas über die gewünschten Qualifikationen für eine Stelle aus?
@@fractofususmisrai237 Wenn man keine Kausalitäten darstellen kann, helfen Korrelationen evtl. auch weiter.
Auf den konkreten Einzelfall bezogen muss das natürlich nicht zwangsläufig passen, für statistische Schlussfolgerungen mag das aber sicher trotzdem nützlich sein.
Am Ende sind die Erkenntnisse doch so oder so Wahrscheinlichkeiten, die von den erhobenen Daten abgeleitet werden.
@@ThomasRoedigerIT Mann müsste halt die relevanten Daten erheben.
@@fractofususmisrai237 Das wird nicht immer möglich sein (z.B. aus Datenschutzgründen). Außerdem weiß man ja auch vorher nicht, welche Daten der Algorithmus für seine Bewertung heranzieht bzw. überhaupt für relevant erachtet und wie sie im Einzelfall gewichtet werden. Je mehr unverfälschte Daten vorliegen, desto besser kann die KI arbeiten. Wenn wir stattdessen an allen möglichen Ecken drehen und die Ergebnisse manipulieren, dürfen wir uns nicht wundern, wenn hinterher nur noch das rauskommt, was man haben möchte.
Einem Menschen aus ideologischen Gründen alle möglichen Eigenschaften zu entziehen, die ihn zu dem machen, was er ist, halte ich für problematisch und nicht hilfreich. Wenn bestimmte Personengruppen je nach Geschlecht, Alter oder Kultur unterschiedlich sind, dann sollte man das auch entsprechend verarbeiten können, da es Bestandteil der Realität ist. Am Ende geht es doch eh immer nur darum, wie wahrscheinlich etwas ist. Das Interpretieren der ermittelten Daten durch den Menschen ist ja dann immer nochmal was anderes.
@@fractofususmisrai237 Sie geben Hinweise darauf wie gut eine Person in ein Team / eine Firma / eine Firmenkultur passt / sich integrieren lässt. In einer Firma arbeiten nun mal Menschen die miteinander interagieren und Menschen sind nie rein Objektiv und ohne Vorurteile und Kulturelle Unterschiede die sich eventuell nicht vertragen. Wie gut jemand sich wahrscheinlich Charakterlich / Kulturell in eine Firma einfügt ist auch eine gewisse Qualifikation für einen Job. Auch so wird bei Bewerbungsgesprächen nie auf rein Fachliche Eignung geschaut, sondern vor allem auch auf Sympathie und wie ein Kandidat vermutlich in ein Team / Abteilung / Firmenkultur passt. Da werden auch Kandidaten abgelehnt, die rein Fachlich gesehen perfekt währen, aber von der "menschlichen" Seite / der Interaktion mit anderen in einem Team nicht klarkommen / sich nicht einfügen werden können.
Warum hat das Video ein leichten rot Stich?
Minute 5:26
"Man kann Software eben nicht für alle und jeden perfekt machen. Minderheiten werden im Zweifel einfach seltener fotografiert und somit auch seltener in Trainingdatensets vertreten sein."
BIPOC Menschen sind keine Minderheit, sondern machen den Großteil der Menschheit weltweit aus.
Grund für die mangelnde Datenlage ist nicht, dass BIPOC Menschen weniger fotografiert werden, sondern schlicht, dass sie in Trainingsdaten oft nicht abgebildet sind.
Immerhin wird dafür kein Kobold gebraucht
Ich denke, dass das größte Problem ist, dass bei dem ganzen Konzept Oberflächlichkeiten im Vordergrund stehen z.B "schreibt er/sie wie andere angesehene Mitarbeiter?" usw. Das ganze Konzept ist nicht objektiv und kann erst dann objektiv werden, wenn jeder eine Art "Leistungsüberwachung" besitzt, also das Jemand der sich bewirbt dann eine Art Datei besitzt, wo der neue AG die Leistungen beim alten AG einsehen kann (z.B wie viel Rechnungen pro Minute hat er/sie durchschnittlich geschrieben, Krankheitstage, wie viele Kundenaufträge konnte er/sie bei Beratungen akquirieren usw.) und somit wirklich das Individuum im Vordergrund steht. Denn am Ende gilt das "Ähnlichkeitsprinzip" bei allen, Schwule stellen lieber Schwule ein, Frauen lieber Frauen und Leute mit Migrationshintergrund lieber andere mit Migrationshintergrund und das ist die traurige Wahrheit - So lange wir keine Instrumente schaffen die Objektivität zu lässt wird immer Subjektivität die Realität sein und die Realität ist auch das viele top ausgebildete junge weiße Männer das Land verlassen, weil sie durch die ganzen Quoten strukturell diskriminiert werden und im Ausland als gern gesehene Fachkräfte empfangen werden.
Ist kein Problem, weil nötig
Ich bin nicht rassistisch ich wurde nur falsch trainiert.
Intros sind einfach episch🙈
7:55 wenn es die Frauenquote gibt welche männliche Kandidaten werden hierfür vom Anfang an ausgeschlossen? Oder versucht man sich nur auf Qualifikationen zu selektieren?
Dass die Bewerber kein Geschlecht angeben oder das es anders gefiltert wird?
Alles Ur-Europäische wird herausgefiltert.
Algorithmus lernt nicht. Das System "lernt" indem es Parameter einstellt, die in dem Algorithmus verwendet werden.
Ich schätze Mal wenn der Mensch schon in seinen Urteil nicht fehlerlos ist. Wie kann da eine Maschine es besser machen bzw eine künstliche Intelligenz? 😷😷😷🤔🤔🤔
Von künstlicher Intelligenz sind wir offenbar noch Lichtjahre entfernt. Leider gilt das nicht für künstliche Dummheit. KI sollte momentan also KD heissen. Ohjeh. Aber wir bleiben dran.
Ich muss Skifahren lernen! :D
starkus
Musst du nicht. Es reicht, Skifahren in der Bewerbung anzugeben. 😉
Ach das macht das Institut bei dem ich morgens auf dem Weg zur Schule vorbei fahre xD. Wegen den Max-Planck-Instituten braucht der Bus seit 3 Jahren 4 Minuten länger zur Schule😂.
Tja, dann sollte man sich mal fragen warum die Hautfarbe beim lernen von künstlichen Intelligenz an eine Rolle spielt und im Datensatz vorhanden ist.. aber da sind die Ammys auch selber schuld wenn ein Richter wegen der Hautfarbe diskriminierende Gerichtsurteile fällt
das heißt also, so lang wir menschen nicht perfekt sind, sind KIs es auch nicht
Warum wundert es mich jetzt nicht das die Amis in ihrer Gesichtserkennungssoftware keinen normalisierten Datensatz genommen haben. Für viele Algorithmen ist es nicht hinreichend aber absolut notwendig, den Trainingsdatensatz gleichmäßig der Merkmale auszulegen. Sprich die kleinste Minderheit die ich unterscheiden möchte bestimmt die Anzahl an Einträgen für alle Klassen.
Generell kann ein Bias auch eine gewünschte bzw besser gesuchte Größe sein. Wir setzten sehr einfache Modelle der KI ein, man könnte auch statistische Auswertung zu sagen, um den Einfluss bestimmter Größen in der Produktion auf die Qualität des Produktes bestimmen zu können. Ein sehr banales Beispiel wäre Temperatur. Ist es an dem Tag warm wird sich das Material ausdehnen. Messe ich eine Länge wird das Bauteil im Bias sehr wahrscheinlich zu klein sein, weil es sich danach abkühlt und dabei schrumpft. Der Bias einer KI, sofern er den erkannt wird, erlaubt es ein Problem tiefer zu analysieren.
Man nennt das nicht „bias“ sondern „Voreingenommenheit“ oder „Vorurteil“.
Machine learning, background, performen- das letzte ist nicht mal mehr Englisch….
Manchmal frage ich mich, wieso heute Deutsche ihre eigene Muttersprache nicht mehr beherrschen.
In informatischen und wissenschaftlichen bereichen gibt es deshalb viele englische begriffe, weil englisch schlicht und einfach die sprache der wissenschaft ist. artikel, dissertationen und studien werden fast ausschließlich in englisch verfasst, weshalb bestimmte schlagworte, die in denjenigen kontexten eine bestimmte bedeutung erhalten, in andere sprachen mit jener vertieften bedeutung anhand des kontextes übernommen werden. so tief ist das nicht. selbst wenn - sprache entwickelt sich weiter. dass wörter von einer sprache in eine übernommen werden ist nicht ansatzweise neu.
Das ist alles sooo vorhersehbar worauf das abzielt. Die Daten gefallen den gewissen Leuten nicht u. deswegen müssen sie geändert o. die Regeln so weit angepasst werden das sie einem gefallen. Die Realität wird dabei gekonnt ausgeblendet. Den die ist ja „diskriminierend“. Wenn ich schon dynamisches Regelwerk oder Moving Boxes höre, dann könnte ich kotzen. Man sieht also nur das was man sehen will. Man setzt nur die Regeln durch die dem heutigen bunten narrativ gefällt. Peopel of color müssen bevorzugt werden weil sie immer diskriminierend werden. Das genau dies also zur Bevorzugung der letztgenannten Gruppe gehört, das interessiert diese Leute nicht, den das passt nichts ins Weltbild.
Als ganz ähnlichen Fall kann man den KI Schönheitswettbewerb sich mal zu Gemüte ziehen.
Danke! Besser hätte ich es nicht sagen können.
Ich sehe ehrlich gesagt gerade nicht das Problem
Es geht darum, dass KIs aufgrund falscher bzw zu wenig Daten falsche Schlüsse auf Kosten der schwarzen Bevölkerung ziehen
Nicht mehr und nicht weniger, keiner redet hier davon, dass sie bevorzugt werden sollen
Mit diesem Kommentar zeigst du, dass du KEINE AHNUNG vom Thema hast.
Du gehst davon aus, dass statistische Annahmen, Modelle etc. von vornhinein perfekt sind. Das ist aber niemals der Fall. Du wirst immer gewisse Verzerrungen finden. Bei JEDER statistischen Analyse (auch bei den einfachen) wird IMMER eine Korrektur vorgenommen um gewisse Fehler herauszurechnen. Aus deinem Kommentar kann ich ebenfalls herauslesen, dass du den Unterschied zwischen Korrelation und Kausalität nicht verstanden hat.
@UCtlNt05mqX7Z142NplwldxQ schön beschrieben, du willst nur sehen was du sehen willst 👌
Uuuuuuund da löscht er seinen Kommentar
Hast selbst bemerkt wie dumm deine Aussage ist?
@@ikarus605 ich habe das so verstanden, dass er der Meinung ist dass schwarze gegenüber weißen systematisch bevorzugt werden sollen
Und das ist einfach Unsinn
Das mit der Objektivität ist so eine Sache... Es gibt keine absolute Objektivität. Selbst wenn die KI nur auf die Noten schaut, liegt darin schon ein Fehler, da Noten selbst schon relativ Subjektiv sind. Noten werden auch von Menschen vergeben. Der eine bewertet strenger, der andere Lascher oder würfelt (grüße an Laschet (Pun intendet)). Auch so fließen bei Noten bei Lehrern auch noch persönliche Sympathien mit ein. Genau so wie das Niveau der Prüfungen je nach Bundesland auch wieder unterschiedlich ist. Wenn ich jetzt die Information über das Bundesland mit einfließen lasse wo jemand her kommt, ist das dann auch wieder diskriminierend? Den Kulturellen Hintergrund dagegen auszuschließen ist auch falsch. Der hat genau so einen Einfluss auf die Wahrscheinlichkeit ob jemand in ein Team / eine Firma / eine bestimmte Firmenkultur passt. Je nach Kultur, gibt es unterschiede was Erziehung, Bildungsstandard, etc... anbelangt. Hat also statistisch auch Relevanz ob jemand als Bewerber in eine Firma passt oder nicht. Man füttert hier praktisch immer eine KI mit rein Subjektiven Informationen.
Ich hoffe sie fangen bald Mal an Schulen objektiver zu machen. Dafür bräuchte man ja nicht Mal ki am Anfang. Es wäre schön viel besser würde man Aufsätze oder andere arbeiten auf dem Laptop tippen und anonym an den Lehrer zur Kontrolle übergeben. Das würde den Rassismus in deutschen Schulen schon drastisch senken, da die Lehrer einfach nicht wüssten von wem die Antworten kommen.
da wir in deutschland leben wird was fortschrittliche technologie angeht erst 10 jahre später eingeführt werden als andere Länder
Minute 5:26
"Auf der anderen Seite kann man Software eben nicht für alle und jeden perfekt machen. Minderheiten werden im Zweifel einfach seltener fotografiert und somit auch seltener in Trainingsdatensets vertreten sein."
Du sprichst im Satz vorher von "schwarzen" Menschen.
BIPOC Menschen sind keine Minderheit, sondern machen den Großteil der Weltbevölkerung aus.
Der Grund, dass sie nicht in Trainingsdatensets repräsentiert sind, ist nicht, dass sie seltener fotografiert werden, sondern, dass sie für solche Datensets einfach nicht berücksichtigt werde, da diese Daten meist von weißen Menschen konstruiert und angelegt werden.
gpt4
4:53 A haha ha. Ja lol. 😀FAIL!
Nein, kann man nicht. Bilder schwarzer Frauen aufzutreiben, die datenschutztechnisch* safe sind, ist noch das kleinere Problem. Aber wer tagged die Bilder? Irgendwelche Praktikaten müssen das Bild erstmal vorbereiten. Sonst hat man das Henne-Ei Problem. Außerdem braucht man wirklich sehr sehr sehr viele Bilder.
*Würdest du wollen, dass dein Gesicht ungefragt in einer anonymen Datenbank auftaucht?
Werde mein ganzes Leben lang gemobbt weil ich Siri heiße 😢
Du hast echt gut abgenommen !
👊🏾👊🏾👊🏾👊🏾
Halt eben nur ein "besserer Lichtschalter" ^^
Warum man den Namen "Intelligenz" für ein elektronisches Reizreaktionsverfahren verwendet, ist mir schleierhaft..
Etwa so wie Smartphones ja auch nicht smart sind (ausser man wölle damit sagen "kleines Telefon", aber das smart soll sicherlich für etwas anderes stehen, lol)
2:08 ich bin nicht rassistisch, aber falls leute heufiger kriminell sind, egal ob das auf grund fehlender Integrations politik oder mangelndem Einkommen, dann muss eine Ki das berücksichtigen
Vielleicht sind sie Gar nicht häufiger kriminell. Beispiel Waffen oder Drogen. Die Bundespolizei sucht in einem Zug danach. Die Polizei kann gar nicht alle Personen kontrollieren. Das darf sie auch gar nicht!!! Deshalb gehen die nach Nasenfaktor und durchsuchen immer ähnliche Personen Gruppen. Rentner und ordentlich gekleidete Personen werden gar nicht erst kontrolliert. Je schicker die Kleidung, desto besser die Anwälte. Aus Bequemlichkeit werden nur die weichen Ziele kontrolliert. Ich kenne genug Leute die verbotene Waffen immer dabei haben. Die werden auch nie kontrolliert. Ich schätze ich hätte bei so einer Kontrolle die höhere Trefferquote. Denn ich würde die üblichen Verdächtigen nicht durchsuchen. Die wissen nämlich das sie kontrolliert werden und haben deshalb meistens nichts dabei.
Dürfte die Polizei alle Personen filzen, hätten wir eine ganz andere Statistik und Trainingsdaten für eine KI.
Die Ursache für Gewalt gegen die Polizei kennen nur die Täter. Für die Täter ist das Handeln der Polizei die Ursache. Der Grund warum die Polizei das verbotener weise macht liegt daran das Polizisten fast nie dafür bestraft werden. Weil es juristisch fast unmöglich ist einen Polizisten zur Verantwortung zu ziehen, gibt's was aufs Maul.
Die Logik will nur niemand verstehen und so werden Polizisten noch besser geschützt.
Das führt zu noch mehr Gewalt einer bestimmten Gruppe und verzerrt somit die Daten Grundlage.
Wie soll eine KI handeln, wenn der optimale Weg verboten ist?
Geht es bei Bewerbungen denn überhaupt um die fairste Entscheidung?
👁️
Also muss man erst die Rasse erfassen, dem Algorithmus sagen das dass unwichtig ist, um den Algorithmus antirassistisch zu machen.
Der Algorithmus beweist unterschwelligen Rassismus. Aber Mensch ist Mensch
Zumindest das was man sich unter Rassimus alles einbildet.
moin
Gehen meine Spenden eigentlich an dich oder an funk?
18,71€ an Funk ist aber nur eine Frage der Zeit bis es 100% werden.
@@die_linke_fahne254 mhm, okay danke.
Heißt das also das wenn ich 5€ spende das 100% an funk geht und wenn ich 50€ spende nur die 18€ an funk geht?
@@meinacc5022 Lass dir keinen Quatsch erzählen. Dieser Kanal ist nicht bei Funk, demnach geht auch kein einziger Cent an Funk.
Wären Cedric und sein Team bei Funk würden sie sich statt Werbung und "Spenden" durch die Rundfunkgebühren ("GEZ") finanzieren.
Die erste Liebe, sagt man mit Recht, sei die einzige, denn in der zweiten und durch die zweite geht schon der höchste Sinn der bedingungslosen Liebe verloren. Wenn man Liebe nicht bedingungslos geben und nehmen kann, ist es keine Liebe, sondern ein Handel, aus dem leider immer mehr Kinder entstehen müssen. Die Äpfel fallen selten weit vom Stamm. Viele Leute trennen Geschlechtsverkehr und Liebe, dabei ist Geschlechtsverkehr die höchste körperliche Geste, seiner Frau oder seinem Mann zu zeigen das man Sie oder Ihn liebt. Daraus sollten Kinder entstehen. Sie haben doch von jedem Mann behauptet das er ihre Nummer 1 ist, warum haben Sie wohl mit ihnen geschlafen? Aus Ehe & Familie werden leider immer mehr temporäre Gemeinschaften! Bei so manchen Menschen gehört Geschlechtsverkehr zum Kennenlernen dazu, manchmal bekommen sie noch ein Kind vom zukünftigen Wochenendpapa. Ich liebe dich sind nur Worte, die sagen sich alle am Anfang, liebe ist eine Tat, und sie findet auch aber nicht nur im Bett statt.
Die erste Liebe, die ins Herz einzieht, ist die letzte, die aus dem Gedächtnis schwindet. Wer vor der Zeit beginnt, der endigt früh. Ich könnte mich nicht in eine Frau verlieben die freiwillig mit einem anderen Mann geschlafen hat.
Was laberst du Spinner?
Künstliche Intelligent hat keine Chance gegen organische Intelligenz.
@mission2000DE Das ist Organische Intelligenz :)
@@PhillipAmthor Kauf dir einen Sexroboter.
@@ilonameyer564 was wenn ich schon einen habe? 🤪
Ich bin generell dafür dass man in Bewerbungen keine Bilder mehr einfügen sollte
Mustererkennung halt
Ich verstehe nicht ganz, wieso diverse Gruppen besser performen.
Ich persönlich habe noch nie einen unterschied gemerkt, wenn mein Partner weiblich, männlich oder eine andere Ethnie hatte.