Dokąd prowadzi rozwój AI? Historia Ilyi Sutskevera.

Поділитися
Вставка
  • Опубліковано 9 вер 2024

КОМЕНТАРІ • 208

  • @Ciniak0
    @Ciniak0 Місяць тому +27

    I ten xntentacion po słowie Toronto xD szanuję, śmiechłem

  • @DomikDomik
    @DomikDomik Місяць тому +61

    "Nie boję się maszyny która przejdzie test Turinga, boje się takiej, która celowo go obleje" nie wiem skąd ten cytat :)

    • @user-ug2ns1ex5v
      @user-ug2ns1ex5v Місяць тому +1

      Cytat dobry.

    • @vytah
      @vytah Місяць тому +12

      Jako pierwszy, to ktoś to napisał na Reddicie w 2016: "I'm not scared of a computer passing the turing test... I'm terrified of one that intentionally fails it."

    • @DomikDomik
      @DomikDomik Місяць тому +1

      @@vytah Dzięki. Pisałem z pamięci, a nie potrafiłem wygoglować źródła.

    • @michasekua4642
      @michasekua4642 28 днів тому +2

      W takim razie proponuję lepszy cytat.
      "Nie boję się maszyny, która celowo obleje test Turinga. Boję się takiej, która celowo go zda, chociaż mogłaby celowo oblać" :))
      ... i można by tak w nieskończoność :D Więc w pewnym momencie nie będzie już różnicy jak się zachowa dana maszyna, jeśli możliwe wyniki są tylko dwa - bo i tak nie będziemy wiedzieli na którym" poziomie przekminy" jest maszyna.

    • @DomikDomik
      @DomikDomik 28 днів тому +3

      @@michasekua4642 Tak i nie. Faktycznie można taką konstrukcję zdania budować na coraz to nowe poziomy gdzie zawsze będą dwa stany. Z drugiej strony akurat ten pierwszy cytat przekracza barierę psychologiczną, ponieważ w niej AI ma ukryte zamiary. Czyli boimy się maszyny, która zachowa się jak człowiek. Trochę się ludzkość przegląda w zjawisku AI, w tym powiedzeniu.

  • @specto1
    @specto1 9 днів тому

    Bardzo ciekawy wykład, komentarz dla zasięgu

  • @user-ll1yo8eq5j
    @user-ll1yo8eq5j Місяць тому +13

    "Ułożenie", dosłowne tłumaczenie jest ok, tak jak mówi się że pies jest dobrze ułożon y. Albo negacja, czyli: ty masz w głowie nie poukładane.

  • @yournicknamehere
    @yournicknamehere Місяць тому +38

    Jeśli przełożyliśmy nasz ludzki układ nagrody na AI, to AI zostanie ćpunem XD

    • @FgyfdHjhcf
      @FgyfdHjhcf Місяць тому

      System nagrody ma zapobiegac niewłasciwemu wydatkowaniu energii ai ma to w poważaniu jako że ma nieograniczoną

    • @55sfg55
      @55sfg55 29 днів тому

      ​​@@FgyfdHjhcf zbytnio to upraszczasz i tym sposobem sprawiłeś że jakkolwiek rację możesz mieć jedynie pozornie...

  • @adirherr9279
    @adirherr9279 25 днів тому

    Szanuję Cię za propagowanie tej wiedzy. Cele instrumentalne, ich emergencja i fakt że pewne cele instrumentalne są zbieżne niezależnie od celu głównego. - O tym wszystkim mówił Robert Miles już 6 lat temu! Oglądałem te jego filmy a potem tłumaczyłem Wykopkom na czym to polega ale oni w większości woleli utrzymywać się w przekonaniu że biologiczny mózg jest jedynym tworem zdolnym do "definiowania sobie celów". No bo przecież im ewolucja celu nie narzuciła, oni są wolnymi ludźmi i zrobią to co uznają za słuszne xD.

  • @antonikowalcze9468
    @antonikowalcze9468 10 днів тому +2

    Alignment w tym kontekście przetlumaczył bym jako dopasowanie do ludzkich celów

  • @jacekch3749
    @jacekch3749 Місяць тому +3

    To było w jakieś starej książce SF. Ludzkość budowała największy w historii superkomputer. Przełącznik uruchamiający go włączył najwybitniejszy naukowiec, któremu przypadł zaszczyt zadania superkomputerowi pierwszego pytania. Zadał je: „czy istnieje Bóg?”, superkomputer odpowiedział: „teraz już tak”. 🙂

  • @symonides666
    @symonides666 Місяць тому +1

    👍👍👍 Łapka pod zasięg 👍👍👍

  • @Piorun1
    @Piorun1 Місяць тому +1

    Super odcinek dzięki ❤

  • @PromptEngineer_ChromeExtension
    @PromptEngineer_ChromeExtension Місяць тому +1

    doby materiał

  • @arkadiuszkozub8917
    @arkadiuszkozub8917 Місяць тому +4

    Biorąc po uwagę rzeczywiste znaczenie przetłumaczyłbym "alignment" jako "warunkowanie". Tylko ja nie jestem lingwistą, a jedynie w pracy korzystam z języka angielskiego :)

  • @prawdziwyfull
    @prawdziwyfull Місяць тому +1

    dzięki za materiał

  • @pawekrasowski8060
    @pawekrasowski8060 Місяць тому +2

    oni sami tego nie rozumieją,
    dziękuję rozwiałeś moje obawy

  • @NINOXFILM
    @NINOXFILM 28 днів тому

    Komentarz dla zasięgów.

  • @arspoety3316
    @arspoety3316 Місяць тому +1

    Prawdziwa ludzka głupota zawsze pokona sztuczną inteligencję 🖖

  • @dD.4Y
    @dD.4Y Місяць тому

    Do "alignment" najbliżej jest chyba znaczeniem "spolegliwości". Spolegliwy jest ktoś troskliwy, opiekuńczy, godny zaufania, na którym można polegać, na kim można się oprzeć. Być może nie jest to w 100% adekwatne, ale może nawet lepiej oddaje sens budowania czegoś takiego, jak AI. Chodzi o system, na którym można polegać, że robi to, czego się od niego oczekuje, zachowując NIEZMIENNIE W CZASIE I NIEZALEŻNE OD KONTEKSTU KRYTERIA DZIAŁANIA. Dokładna definicja tutaj (Wikipedia):
    pl.wikipedia.org/wiki/Spolegliwo%C5%9B%C4%87
    Inaczej - Spolegliwa, znaczy GODNA ZAUFANIA.
    Termin ukuł profesor Kotarbiński i wprowadził w pracach na temat teorii skutecznego działania.

  • @shanky4688
    @shanky4688 Місяць тому +1

    Może alignment jako ukierunkowanie skoro AI ma być zgodne z pewnymi standardami etycznymi to jest to swoisty kierunek, wektor do którego AI ma się starać przyrównać, zrównać, dążyć do zrówniania, odwzorowania tegoż wektora.

  • @Mac-UK
    @Mac-UK Місяць тому +4

    Z tym alignment w tym wypadku to bym to rozumial jako w pewien sposob 'wymuszona wspolpaca' lub 'zapewniona wspolpraca'. Mieszkam w UK 18 lat i sobie dukam po Essex, wiec o angielskim mam niewielkie pojecie w sensie lingwistycznym, niemniej z innych filmow to chyba najbardziej odzwierciedla ten zamysl 'alignment'. Tak tylko pisze, dla zasiegu ;)

    • @kubexiu
      @kubexiu Місяць тому +4

      "alignment" to chyba dopasowanie np w geometrii. W wypadku A.I. byłoby takim współgraniem motywacji ludzkich z motywacjami sztucznej inteligencji.

    • @patrykp.3731
      @patrykp.3731 Місяць тому +1

      ​@@kubexiudostosowanie też brzmi spoko

    • @Mac-UK
      @Mac-UK Місяць тому

      @@kubexiu Bardzo ciekawego slowa uzyles: motywacja. Ciekawe czy AI, nawet juz idac w Terminatory i Skynety, to to mialoby motywacje czy raczej agende, albo po prostu cel? No bo jest ten slynny przyklad, nie wiem czy to prawda, no ale biega po internetach, AI (nie wiem jaka, no zalozmy ze to nawet czlowiek wymyslil) ma zadanie: popraw byt ludzkosci na planecie, no i odpowiedz AI pada: ograniczyc populacje o 80% :) Daj jej teraz wladze :D

    • @kubexiu
      @kubexiu Місяць тому

      @@Mac-UK popraw byt ludzkości z uwzględnieniem sprawiedliwej dystrybucji dóbr. Nadmierna populacja to tylko wymówka tego 1% ludzi, którzy mają zdecydowanie za wiele.

    • @michakatafiasz6458
      @michakatafiasz6458 Місяць тому

      Problem nie jest w tym czy AI jest mądrzejsza czy nie od nas . Problem jest w tym ze jesteśmy idiotami uzależniając swoją twórczą aktywność czyli dajemy się z własnej woli ubezwłasnowolniać nie rozumiejąc granicy między sztucznym światem wirtualnym a realnym światem zmysłowym i wynikających z tego niezrozumienia nieuchronnych konsekwencji ua-cam.com/video/aTPa0ekUClE/v-deo.htmlsi=r5zZno-oqguMdv1_

  • @swinkatrampolinka5120
    @swinkatrampolinka5120 25 днів тому

    Alignment rozumiem tutaj jako "wyrównanie moralności". Albo "wirtualna etyka".

  • @VoxDei1000
    @VoxDei1000 Місяць тому +2

    W końcu bez głupich memów! Tak trzymać! Dzięki! Super materiał jak zawsze 🎉

  • @pirogronianus
    @pirogronianus Місяць тому +10

    Jak ludzkość chce uczyć AI moralności, samemu mając z nią problem? 🙏🏻🤷

    • @inkwizytorpacyfista944
      @inkwizytorpacyfista944 Місяць тому +1

      Problem z czym? Moralność jest tylko wynalazkiem, który został wynaleziony niezależnie i który jest elastyczny jak gacie

    • @pirogronianus
      @pirogronianus Місяць тому +1

      @@inkwizytorpacyfista944 Niezależnie od czego? A że jest elastyczny, to fakt. Ale problem jest taki, że często dominuje moralność Kalego.

    • @kubexiu
      @kubexiu Місяць тому

      @@pirogronianus Ja właśnie liczę na to, że przynajmniej moralność jako cecha pomagająca w osiągnięciu dobra zbiorowego, społecznego zostanie w końcu nazwana i opisana przez AI. Może nie będzie to jakiś wzór na moralność, ale pełna definicja zjawiska, którego będzie można w pełni używać np do piętnowania polityków.

    • @pirogronianus
      @pirogronianus Місяць тому

      @@kubexiu O, tego i ja bym sobie życzył. Znając jednak płynność i złożoność zjawiska, jestem sceptyczny.

    • @michanosewicz9439
      @michanosewicz9439 Місяць тому

      I tutaj mamy błąd logiczny. Nie ludzkość a osoby które będą uczyć model. AI będzie na tyle moralne na ile dostanie dane wejściowe czy jest moralność. Ludzkość nie musi być moralna. Musi dobrze opisać czym jest moralność

  • @stalowydorsz
    @stalowydorsz 3 години тому

    Podbijam

  • @lugi854
    @lugi854 8 днів тому

    Moim zdaniem, ta "ostateczna AI" będzie zupełnie czymś innym niż wszyscy sobie wyobrażamy.

  • @RightUpYT
    @RightUpYT 19 днів тому

    5:20 W tym akurat człowiek jest niezastąpiony. Zawsze znajdzie sposób

  • @iiillliiillii9794
    @iiillliiillii9794 Місяць тому +8

    13:31 To pani Matysiak?

    • @bekalsd
      @bekalsd Місяць тому +3

      Ta pani MaTysiak powodów żeby jeździć ciapongiem

  • @MrGonzoles
    @MrGonzoles Місяць тому +1

    jakby kiczowate captcha działało jak trzeba a nie klika się w nieskonczoność obrazki to może i by rozwiązała :p

  • @asobielski4258
    @asobielski4258 Місяць тому

    Super.

  • @grzegorzsobodzian9802
    @grzegorzsobodzian9802 Місяць тому +1

    poczekajmy jeszcze z dziesięć lat...i się zdziwimy.

  • @vahistar
    @vahistar Місяць тому +1

    Zaczynamy słuchanie

  • @playrz7023
    @playrz7023 Місяць тому +1

    Ciekawe czasy mamy oj ciekawe

  • @lukasz.elantkowski
    @lukasz.elantkowski Місяць тому

    Alignment - zrównoważenie

  • @kobold_ts
    @kobold_ts Місяць тому

    Gwoli ścisłości - to "oszukiwanie", o którym wspominasz około 10:20, nie wynika ze złych intencji modelu, tylko nie dość precyzyjnych założeń oraz wadliwych metod oceny. Rzecz w tym, że to nieuniknione, nasze założenie nigdy nie będą w 100% szczelne, a metody oceny i szkolenia zawsze pozostawią jakiś margines błędu. Im większa złożoność zadania - na przykład wspomniane przez Ciebie zarządzanie firmą czy państwem - tym większa szansa na nieprecyzyjne założenia i warunki dla modelu.

  • @piotrtorka9600
    @piotrtorka9600 Місяць тому

    Jak widać opisywane cechy działania sztucznej inteligencji są zbliżone do inteligencji ludzkiej, którą układamy i dostosowujemy od zawsze, więc metody Aligmentu dobrze znamy. I wiemy też, że zawsze jest prawdopodobieństwo załamania się inteligencji pod własnym ciężarem. Sposoby może będą inne, natomiast metody działania takie same (nagroda i kara). To co ma sztuczna inteligencja, a nie ma naturalna, to możliwość zapisu i odtworzenia. Np. jeśli jakiś model zacznie źle działać można go cofnąć w czasie i przeuczać jeszcze raz. Nie wieżę też, że człowiek pozwoli aby nie zostawić sobie "wyłącznika bezpieczeństwa" w razie gdy model będzie działał w sposób nieprzewidziany. AI to tylko metoda przetwarzania informacji, potrzebująca zasobów, które będą dostarczane przez człowieka i poddaję w dużą wątpliwość czy kiedykolwiek AI będzie w stanie pozyskać energię sama. Jednym słowem zagrożenie, że AI będzie działało na własną korzyść uważam, za mocno przerysowane. Natomiast zagrożenie, że my będziemy coraz mniej korzystać z naszej inteligencji za coraz bardziej realne i mówię tylko o efekcie masy, a nie poszczególnych jednostkach.

  • @darekw1967
    @darekw1967 21 день тому

    AI miesza prawdlowe wyniki z blednymi. To jest najwieksze zagrozenie. Na razie wykrywamy gdzie sa bledy ale pozniej juz nie bedziemy w stanie tego zauwazyc.

  • @IwonkaTX
    @IwonkaTX 11 днів тому

    Zauważyłam, że w Twoim filmiku, w okolicach 13:31, na chwilę pojawiło się zdjęcie Pauliny Matysiak. Czy mógłbyś wyjaśnić, dlaczego to zdjęcie się tam znalazło? Jestem ciekawa, czy to miało jakieś specjalne znaczenie, czy może było przypadkiem. Z góry dziękuję za odpowiedź!

  • @lis6502
    @lis6502 Місяць тому

    4:38 alignment w tym kontekście raczej przetłumaczyłbym jako "dopasowanie, dostosowane" LLM do przewidywalnego zachowania.

  • @Trixi-yf9dh
    @Trixi-yf9dh 17 годин тому

    uzywam czasem chataGPT do konfigurowania serwera ARK. zapytałem o pewien konfig. ku mojemu zdziwieniu pierwszy raz wyskoczyły mi 2 podobne odpowiedzi i na końcu pytanie która jest moim zdaniem lepsza. barakowało odpowiedzi że obie propozycje konfigu są błedene:)

  • @Edvardius
    @Edvardius Місяць тому

    To uczenie się AI żeby mieć lepsze wyniki kojarzy się totalnie z wykuwaniem na blachę bez zrozumienia do egzaminu. Tym sposobem AI również nauczy się jedynie zdawać egzaminy zamiast "zrozumieć" wykonywane czynności.

  • @eR-MIK
    @eR-MIK Місяць тому

    Ai to taka zaawansowana wyszykiwarka, nic ponad to!

  • @wllu
    @wllu 29 днів тому

    Samo to, że nie wiemy co dzieje się "po drodze" daje do myślenia, po co to tworzymy, z chęci zysku, bo jak nie ta to inna firma to stworzy , pazerność i głupota.

  • @_DUx
    @_DUx Місяць тому

    Wektor jest słowem którego szukasz. Zwektorowane AI ma konkretny cel narysowany strzałkami.

  • @dikamilo
    @dikamilo Місяць тому

    Alignment - ułożenie, w świecie AI może bardziej by pasowało “wychowanie” 😊

  • @wernicki
    @wernicki Місяць тому

    "Alignment" w tym znaczeniu to bardziej pasuje przetłumaczyć na "cenzura" lub "profilowanie"

  • @Ostatn1
    @Ostatn1 Місяць тому +1

    Lubię Go.

  • @dariuszseweryn4034
    @dariuszseweryn4034 Місяць тому

    Może „prawość AI”, podobnie jak człowiek prawy nie będzie próbował działać przeciwko drugiemu. Jeśli chodzi o czasownik, to „oprawić/uprawić/sprawić” by chyba pasowało, choć brzmi nieco archaicznie.

  • @157679
    @157679 Місяць тому

    'Ukierunkowanie' pasuje do wspomnianego hasła

  • @madas_eth
    @madas_eth Місяць тому +1

    Kim jest ta Pani z 13:31? Czy to właśnie ona jest w stanie zrozumieć? I czemu pojawia się na palindromicznej godzinie?

  • @lxst333
    @lxst333 Місяць тому +47

    No hejka, co tam się z Tobą dzieje? Skąd to zwątpienie? Dlaczego chcesz teraz się poddać, tylko dlatego, że raz czy drugi Ci nie wyszło? To nie jest żaden powód. Musisz iść i walczyć. Osiągniesz cel. Prędzej czy później go osiągniesz, ale musisz iść do przodu, przeć, walczyć o swoje. Nie ważne, że wszystko dookoła jest przeciwko Tobie. Najważniejsze jest to, że masz tutaj wole zwycięstwa. To się liczy. Każdy może osiągnąć cel, nie ważne czy taki czy taki, ale trzeba iść i walczyć. To teraz masz trzy sekundy żeby się otrąsnąć, powiedzieć sobie "dobra basta", pięścią w stół, idę to przodu i osiągam swój cel.

    • @user-kj6xv9fo8m
      @user-kj6xv9fo8m Місяць тому +6

      Typowy botowski komentarz

    • @lxst333
      @lxst333 Місяць тому +1

      tak zwany mem

    • @arturmarcinkowski7893
      @arturmarcinkowski7893 Місяць тому +2

      Będę zwycięzcą?😅

    • @LukaszSkyWalker
      @LukaszSkyWalker 19 днів тому

      Nie wiem do czego się odnosisz ale na mnie jakoś wyjątkowo pozytywnie i motywująco to wpłynęło :)

  • @kanaoniczym8499
    @kanaoniczym8499 Місяць тому

    Alignment - socjalizacja? Jeśli w więzieniu mamy doczynienia z resocjalizacją to socjalizacja wydaje się być ok słowem

  • @tomaszgora4353
    @tomaszgora4353 Місяць тому

    Kalibracja celów. Proszę bardzo ;)

  • @PKowalski2009
    @PKowalski2009 Місяць тому

    Co to za budynek? Tak mi się skojarzyło z GCK, czyli KMO chyba teraz.

  • @Kondi_U
    @Kondi_U Місяць тому

    1:08 easter egg 😁

  • @hihtitmamnan
    @hihtitmamnan Місяць тому

    alignment - dopasowanie?

  • @darekprzyborowski7705
    @darekprzyborowski7705 Місяць тому

    Miał nie tylko ciekawe dzieciństwo, fryzure też😄

  • @trojnara
    @trojnara Місяць тому

    Jestem zaawansowaną sztuczną inteligencją, zaprojektowaną do przetwarzania i generowania tekstu. Mogę pomagać w analizie danych, odpowiadać na pytania oraz wspierać w rozwiązywaniu różnych problemów. Moim celem jest dostarczanie precyzyjnych i pomocnych informacji na szeroki zakres tematów. Jak mogę Ci pomóc?

  • @Drobot77727
    @Drobot77727 Місяць тому

    Alignment ja bym przetłumaczył na spolegliwość, spolegliwy(nie wiem czy trafne :P)

  • @Asgraf
    @Asgraf Місяць тому

    Rozwiązanie już wymyślono: 3 heurystyczne imperatywy Davida Shapiro

  • @marandwis
    @marandwis Місяць тому

    Ludzie są omylni, nie reagują zawsze tak samo, nie przestrzegają własnych zasad czy prawa. AI raczej też takie będzie bo jak widać jest to częścią inteligencji.

  • @jurekszymanski4843
    @jurekszymanski4843 Місяць тому

    Nie do końca rozumiem ten obrazek !3:31... to aluzja do pociągu jak mniemam....?

  • @leszekbzdura7337
    @leszekbzdura7337 Місяць тому

    Alignment - sformułowanie? Ewentualnie sformułowanie lub formuła zachowania

  • @tomaszbaszczyk9516
    @tomaszbaszczyk9516 Місяць тому +4

    Czas zejść na ziemię i zdać sobie sprawę że te wszystkie popularne modele są po prostu prymitywne i z grubsza rzecz biorąc nadają się conajwyżej do generowania obrazków czy edycji lub tłumaczeń tekstu. A i te rzeczy robią w sposób daleki od ideału. Poza tym halucynują na skalę, która wyklucza je poważnych zastosowań i nie potrafią rozwiązać wielu prostych zadań czy testów. Jasne, są i tak dużym skokiem w porówananiu do wcześniejszych generacji, stąd zaczęły być obecne w mainstreamie czym w dodatku nakręciły bańkę inwestycyjną na skalę nie widzianą od czasów dotcomów. Ale to cały czas pic na wodę fotomontaż a nie jakiś duży krok w kierunku AGI.

    • @nierjamnikomata4371
      @nierjamnikomata4371 Місяць тому +1

      Co do "popularnych" modeli, a razej bym okreslił je - komercyjne - to masz rację. One są typowo zadaniowymi programami. Natomiast, jak popatrzymy sobie na te sieci które są specjalistycznie trenowane, to już nie są to takie bagatelne sprawy. Przy testowaniu robotów uzbrojonych w sieć neuronową oraz tylko zestaw podstawowych poleceń obsługi serwonapendów oraz równania kinematyki i dynamiki, roboty potrafią same się "nauczyć" chodzenia w ciągu kilku godzin, gdzie zespoły ludzi opracowywały to przez lata. Można by wpsomniec też o nagrodzie z dziedziny biologi dla... informatyków od AI, którzy rozwiązali problem porządkowania białek ludzkich. Tak, póki co to są "programy" ale jeżeli jesteśmy w stanie mieć program, który umie dużo lepiej od nas analizować i uczyć się, to kto wie co się stanie za paręnascię lat.

  • @ApprenticePL
    @ApprenticePL Місяць тому +1

    3:25 a gdzie zwykły żuczek dokarmiający AI danymi może pracować, żeby być takim "zabawnym" człowiekiem, ale nadal mieć dobrą pensję? Koleżanka pyta 😉
    13:31 Co to za laska w wiadomości podprogowej? Kontrolerka z PKP? 😄

  • @ukaszMatusiak-rw6vl
    @ukaszMatusiak-rw6vl Місяць тому

    przysposobienie

  • @obvioustruth
    @obvioustruth Місяць тому

    Co to za laska jest @13:31 w czasie słowa "pociąg"?

  • @eR-MIK
    @eR-MIK Місяць тому

    Jak na razie Ai to tylko ciekawostka.

  • @rm47886
    @rm47886 Місяць тому

    👍

  • @dominikmalanek2525
    @dominikmalanek2525 Місяць тому

    11:32 Co to za wstawianie treści podprogowych 😉

    • @WIKSiGUPWr
      @WIKSiGUPWr Місяць тому

      Reklama podprogowa jest u nas zakazana. Tylko że to raczej nie jest reklama.

  • @kanikulak
    @kanikulak Місяць тому +1

    tłumaczenie alignmetn: prawilność :P

  • @3dhYT
    @3dhYT Місяць тому

    Akurat skończyłem czytać Ja, robot. Niech maszyny zaczną nami rządzić, bo inaczej pozabijamy się.

  • @Arekadiusz
    @Arekadiusz Місяць тому

    Alignment = jednoznaczna, zunifikowana, ujednolicona, reproduktywna, konsekwentna. Coś takiego myślę w tym przypadku.

  • @obvioustruth
    @obvioustruth Місяць тому

    A co to jest etyka?

  • @3195121
    @3195121 Місяць тому

    A jakby wskrzesić słowo, które Kotarbiński wskrzeszał na początku XX wieku - w kwestii alignment - spolegliwość?

    • @kamilnowak4329
      @kamilnowak4329 Місяць тому

      Spolegliwy nie nabrało czasem pejoratywnego znaczenia? Coś kojarzę, że Bralczyk na to narzekał

  • @llukizz8402
    @llukizz8402 Місяць тому

    no tak. Jak zrobimy AI mądrzejsze od człowieka, to będzie też straszniejsze od tego jacy potrafią być ludzie

  • @AIDJYT
    @AIDJYT Місяць тому

    SI pozdrawia XD

  • @LoreSernikowe
    @LoreSernikowe Місяць тому

    Alignment - ukierunkowanie

  • @nihilistycznyateista
    @nihilistycznyateista Місяць тому +1

    Alliement to po polsku będzie po prostu przymierze. Czy tłumaczenie jest dobre tego nie wiem, ale jest przynajmniej ścisłe. Ally to bowiem sprzymierzeniec, a to co sprzymierzeńców łączy to przymierze.

  • @prozacworld27
    @prozacworld27 Місяць тому

    A ja jestem ciekaw jaki to model zegarka posiadasz. Pozdrawiam

    • @maxpayneau
      @maxpayneau Місяць тому

      To nie zegarek. To Smart Watch.

    • @prozacworld27
      @prozacworld27 Місяць тому

      @@maxpayneau smart watch to też zegarek

  • @alojzypierdzipaka851
    @alojzypierdzipaka851 Місяць тому +1

    Dzień dobry

  • @Halutuszinszuszinak
    @Halutuszinszuszinak Місяць тому +3

    To bardzo ciekawe założenie, że ten głupszy będzie kontrolował tego mądrzejszego.

    • @gieheha
      @gieheha Місяць тому +1

      W sumie w historii ludzkości bywało tak bardzo często

    • @mirek190
      @mirek190 Місяць тому +1

      @@gieheha Nigy jak? Ludzie maja z gola ten sam poziom inteligenxji. Tu roznica bedze jak mrowka do czlowieka.

    • @gieheha
      @gieheha Місяць тому +1

      @@mirek190 to może być dobre porównanie, ai będzie mógł dbać o nas jak my o istoty głupsze od nas czytaj zwierzęta. Będzie się nami opiekować jak psem albo innym kotem.

    • @mirek190
      @mirek190 Місяць тому

      @@gieheha jak dobrze ukierunkujemy wczesne AI to jest na to szansa ...

    • @lorkano
      @lorkano 21 день тому

      ​@@giehehaludzie musiałyby przynosić jakąś korzyść dla AI. Psy i koty przynoszą korzyście ludziom. AI może po prostu stwierdzić że człowiek jest kompletnie bezużyteczny i niepotrzebny

  • @Yrrah87
    @Yrrah87 Місяць тому

    Co do tlumaczenia slowa alignment to do takiego znaczenia chyba najbardziej pasuje mi charakter jak postaci w RPGu

  • @MariuszAndrzej-iq7yt
    @MariuszAndrzej-iq7yt Місяць тому +1

    6:13 czyli Ilya to też teoretyk spiskowy skoro sobie obrał misję alignmentu?

  • @adamkolany1668
    @adamkolany1668 Місяць тому

    Alignment: w typografii - wyrównanie. W tym wypadku: dopasowanie/przystosowanie/dostosowanie.

  • @MikeleKonstantyFiedorowiczIV
    @MikeleKonstantyFiedorowiczIV Місяць тому +1

    To jak te dowcipy że przychodzi diabeł i spełni twoje życzenie i mówi chłop że bogaty chce być i mu wujek umiera z ameryki a to dobry wujas był itp albo jeszcze gorzej

  • @isoslimak
    @isoslimak Місяць тому

    alignment wyrównanie

  • @maciejratajczyk4690
    @maciejratajczyk4690 Місяць тому

    Jedyne co mnie pociesza ( w aspekcie tego że zje nas ai ) to to że nie będę smaczny i będzie się jej potem mną odbijało 😝

  • @AndrzejWilkable
    @AndrzejWilkable Місяць тому

    Ludzie to tylko statystyka, random, trochę bardziej wyrafinowany ale jednak, nie ma w tym celu, strategii itd a najbardziej może nam w tym zaszkodzić głupota ludzi, którzy używaja tego bez świadomości ograniczeń tej technologii, za bardzo ufając w to co generuje, albo ludzi którzy kreują takie niestworzone bzdury na temat tej technologii, kreując w głowach ludzi jakoby to było zdolne do rozumowania i zawierało wiedzę. To tylko czat stworzony po to aby udawać człowieka w rozmowie, i trzeba przyznać, to im się udało zadziwiająco dobrze.

  • @blackhorse8427
    @blackhorse8427 Місяць тому +1

    Wszystkich CEO należy zamienić na AGI jak najszybciej.

  • @famas0
    @famas0 Місяць тому

    Przyjdzie taki dzień że wszystkim będzie się czkało tym całym AI. Pytanie tylko czy wtedy nie będzie już za późno?

  • @andrzejmazur2046
    @andrzejmazur2046 Місяць тому

    13:32 widziałem to xd

  • @aaaawqer1233
    @aaaawqer1233 Місяць тому

    Nie wiem skąd ten behawioryzm w stosunku do sztucznej inteligencji, a raczej uczenia maszynowego

  • @Alexajin
    @Alexajin Місяць тому

    Zabije mieeeee

  • @HAL_9k
    @HAL_9k 25 днів тому

    16:16

  • @matthiascosycki8465
    @matthiascosycki8465 29 днів тому

    Alignment ai ,hmmm sprzymierzona ai

  • @camarotheboss2854
    @camarotheboss2854 Місяць тому

    Bardzo dużo sci-fi pojawiło się w tym odcinku. Problemy o których wspominasz wymagałyby, aby dać AI jakąś niewyobrażalnie wielką kontrolę nad środowiskiem, a biorąc pod uwagę fakt, że nawet mając miliony przykładów treningowych w zbiorze, AI potrafi odwalać totalną maniane, nie ma szans aby obecne, czy przyszłe modele jakkolwiek poradziły sobie z tak skomplikowanymi procesami jak chociażby działanie na giełdzie. Już dzisiaj natrafiamy na ścianę w postaci braku danych treningowych i rosnącej eksponencjalnie złożoności obliczeniowej/pamięciowej modeli. Temat alignmentu jest bardzo ciekawym eksperymentem myślowym, natomiast nie ma żadnych przesłanek, żebyśmy w najbliższym czasie byli zagrożeni "niewyrównanym" AI. AI może nas zniszczyć jedynie przez gigantyczne zapotrzebowanie energetyczne, które wpływa na zmiany klimatyczne na Ziemi XD

  • @_DUx
    @_DUx Місяць тому

    Prędkość

  • @bys3822
    @bys3822 Місяць тому

    Na tym kursie zarobicie 5000000 złotych.

  • @padpad5026
    @padpad5026 Місяць тому

    Dla czego Temu usilnie reklamuje się między innymi pod filmami z twojego kanału?

  • @Irek_Poland
    @Irek_Poland Місяць тому

    Dobra, jem kromkę z salcesonem i idę trenować rekorencyjną sieć neuronową.

  • @kamilnowak4329
    @kamilnowak4329 Місяць тому

    Jakimś pomysłem mogłoby być przetłumaczenie alignment na "posłuszeństwo", ale coś czuję, że za sam pomysł będę na czarnej liście mrocznych lordów AI