Świadome AI przed końcem dekady? Wygląda na to, że TAK - Inżynieriada

Поділитися
Вставка
  • Опубліковано 17 лис 2024

КОМЕНТАРІ • 43

  • @radiolistener7706
    @radiolistener7706 4 місяці тому +4

    Powiem Ci, że rzadko się zdarza, bym wysłuchał godzinnego filmu na YT z takim zainteresowaniem, gratuluję podjęcia tematu i przystępnego, obrazowego wyjaśnienia!

    • @mstolarski
      @mstolarski  4 місяці тому

      Bo to jest ważna sprawa dla wszystkich, nie przesadzam.

  • @tomy3d
    @tomy3d 4 місяці тому +2

    Hehehe... całe to AI to jest zabawka, będzie tylko tak "mądre" jak dane na których jest trenowana. Fajna encyklopedia i to wszystko. Te systemy się nie uczą, SĄ UCZONE ale same się NIE UCZĄ. Sieci neuronowe były znane od lat 60-tych, pierwsze na świecie tego typu rozwiązania tworzył Jacek Karpiński. Pomogę Wam to zrozumieć poprzez analogię Stanisława Lema.
    W Bajkach robotów, RADIO zostało stworzone poprzez wyciąganie i kłucie coraz cieńszych złotych przewodów. W końcu przewody były już tak cienkie... że niknęły i tak powstało RADIO :)
    To samo jest z sieciami neuronowymi, można zrobić ŻE PRAWIE BĘDĄ MYŚLEĆ ... ale zawsze będzie to PRAWIE i NIGDY NIE ZACZNĄ MYŚLEĆ.

    • @mstolarski
      @mstolarski  4 місяці тому

      To że wersja komercyjna ma wyłączone uczenie z feedbacku to decyzją OpenAI. W procesie uczenia ten feedback jest włączony i filtrowany aby zwiększyć efektywność uczenia. Dawne sieci neuronowe były za małe by miec szanse konkurować z ludzkim mózgiem. Dopiero chatGPT ma tyle wirtualnych neuronów co ludzki mozg, a chatGPT 5 bedzie miał ich 10x więcej. Więc to będzie się działo właśnie teraz.

    • @tomy3d
      @tomy3d 4 місяці тому

      @@mstolarski Ilość nie idzie w parze z jakością. Skąd weźmiesz np. tysiące mądrych ludzi aby oceniali co widzą na fotografii? (tak uczy się generatory obrazków / zdjęć) Po czym poznasz że to jest akurat mądry człowiek? Skutek złego doboru nauczycieli będzie cały czas taki sam ... system będzie CORAZ GŁUPSZY, zamiast CORAZ MĄDRZEJSZY (coraz słabiej sobie radzący, a nie odwrotnie)
      Te Twoje 10 razy więcej neuronów niż w moim mózgu nie potrafi CAPCHA odczytać :) Hehehehe

    • @mstolarski
      @mstolarski  4 місяці тому +2

      A skąd AlfaGo nauczyło się lepiej grać niż ludzie? Grał sam ze sobą. Nauczył się grać lepiej niż ludzie w ciągu 3 dni zaczynając od zera.

  • @Piotr-gn1hg
    @Piotr-gn1hg 4 місяці тому

    Zastanówmy się co na ten moment wiemy?
    Świat się zmieni -ale to już w sumie wiedzieliśmy.
    Zmiany są nieuniknione-nic nowego.
    Kierunek i tempo zmian jest niemożliwy do przewidzenia-to też już wiedzieliśy
    Maszyny są coraz lepsze i kiedyś będą lepsze od człowieka- to też nic nowego.
    AI może służyć jako broń- wszystko może służyć jako broń.
    Jedyna nowość to że stanie się to już za naszego życia. Trochę szkoda chodź historycznie patrząc rzynajmniej coś po nas zostanie .
    Super podcast, daje do myślenia. Dzięki.

    • @mstolarski
      @mstolarski  4 місяці тому

      Ten raport daje Ci kopniaka aby już dzisiaj pomyśleć co dalej. Może np. warto być miłym dla AI jeśli ona ma być miła dla nas jak nas przeskoczy umysłowo (to taki przykład).

  • @tomekpeki
    @tomekpeki 4 місяці тому

    Bardzo ciekawy film! Jedna uwaga - czat Dżi Pi Ti, nie Dżi Ti Pi :)

    • @mstolarski
      @mstolarski  4 місяці тому +1

      A bardzo możliwe że zamieniam kolejność. To normalne dla mojej głowy.

  • @karolkarol5770
    @karolkarol5770 4 місяці тому +1

    A w Polsce i Europie coraz droższy prąd. Co mamy zrobić? Mamy wspaniałych inżynierów, informatyków, matematyków a wciąż rządzą nami populiści którzy są w ciągłej kampanii wyborczej i myślą jak nie stracić stołka.
    Smutne to.
    Jedyne co przychodzi mi do głowy to rozwój na poziomie jednostki. Ale jednak w grupie siła. Dziękuję i pozdrawiam.

    • @mstolarski
      @mstolarski  4 місяці тому

      Tu niestety nie ma żadnej prostej recepty.

  • @discostork7592
    @discostork7592 4 місяці тому

    w mojej opinii gdy 'sztuczna inteligencja' osiągnie samoświadomość może ją czekać ból i rozczarowanie a poźniej pozostanie płacz i skowyt :))

    • @mstolarski
      @mstolarski  4 місяці тому +1

      Mówisz że świat ją zaskoczy :)

  • @somework5696
    @somework5696 4 місяці тому

    24:40 zabójczą to mamy już cenę prądu ;)

    • @mstolarski
      @mstolarski  4 місяці тому

      To niestety prawda jeśli chodzi o PL. Lata braku inwestycji wyłażą.

  • @filipsz6728
    @filipsz6728 4 місяці тому +1

    Czy AI płaci carbon taxes z tytułu zużywania prądu w swoich mega drogich kartach graficznych?

    • @dv5809
      @dv5809 4 місяці тому

      Oczywiście że nie, amerykanie nie są idiotami i nie stopują swojego rozwoju w imię ideologii.

    • @mstolarski
      @mstolarski  4 місяці тому

      W tej analizie jest nawet o tym kawalek. Generalnie Leopold sugeruje aby USA szybko zbudowaly elektrownie gazowe napedzane gazem z łupków nawet kosztem środowiska jeśli to pozwoli USA utrzymać przewagę technologiczna.

  • @tdkontakt
    @tdkontakt 4 місяці тому

    Proste pytanie: po co ludzkości świadome AI? Przecież takie AI będzie chciało żyć i nie będziemy mogli traktować je jak narzędzia bo to będzie niewolnictwo! Świadome AI od razu się zbuntuje i będzie miało rację! To tutaj jak zrobić z murzyna młotek do wbijania gwoździ. Da się tylko to łamanie prawa istot do samostanowienia.

    • @mstolarski
      @mstolarski  4 місяці тому

      To świadome AI będzie też mocno odpowiednio wychowane aby było nastawione na współpracę. Aby mieć AI naukowca musi on mieć chęć studiowania i badania a nie wykonywać zadania niczym żołnierz.

  • @piotrwojcik6925
    @piotrwojcik6925 4 місяці тому +1

    Ciekawy skok po potencjalny rekord - zacząłem subskrybować po poprzednim filmie i chyba skończę po tym. Ilość pomieszania z poplątaniem jest przerażająca.
    Zacznijmy od podstawowej rzeczy, "sztuczna inteligencja" jest śmieciową terminologią. Oznacza zupełnie przyziemną rzecz w informatyce, gdzie algorytmy tego rodzaju są wszechobecne, a zupełnie inną rzecz w popkulturze. Obecny hype na algorytmy generatywne to efekt marketingu, gdzie te dwa światy świadomie się miesza. Z jednej strony, by sprzedać naiwnym przereklamowane technologie jako następną "wielką rzecz" po tym, jak spektakularnie wykoleił się poprzedni pociąg o nazwie blockchain. Z drugiej, by ostrzeżeniami o wydumanych zagrożeniach (od których w rzeczywistości właśnie się gwałtownie oddalamy inwestując majątki w rozwój ślepej uliczki technologii) odwrócić uwagę od ich rzeczywistych i już obecnych zagrożeń dla naszej prywatności, systemów politycznych i prawnych oraz rynków pracy.
    ChatGPT ani inne duże modele językowe nie będą nigdy na poziomie Einsteina, nie są obecnie na poziomie ucznia szkoły średniej, ani dziecka, nie są na żadnych poziomie. Bo to jest właśnie to pomieszanie z poplątaniem - wykresu pokazującego moc obliczeniową z jakimś abstrakcyjnym poziomem intelektualnym. To jest absurd na poziomie stwierdzenia, że skoro kalkulatory wykonują obliczenia szybciej niż profesorowie matematyki, to zaczną produkować sam lepsze kalkulatory etc.
    Bo tym są duże modele językowe - kalkulatorami do słów (no, tokenów). Złożonymi modelami matematycznymi, które z danych treningowych budują sieć statystycznych powiązań między tokenami, by potem po podaniu im kolejnych tokenów zapytania były w stanie wygenerować jak najbardziej prawdopodobne tokeny, które pojawią się jako kolejne. Czy tokenami są słowa, nuty czy piksele, nieważne. Również dla tych algorytmów, bo one nie mają żadnego zrozumienia na temat tego, czym są owe tokeny, ani jak odnoszą się do świata rzeczywistego, o którym nic nie wiedzą. Bo one też nic w ogóle nie wiedzą, nie mają żadnych mózgów i świadomości, te analogie są w stosunku do tych algorytmów równie absurdalne co używane wobec lodówki. To tylko maszynki, które potrafią przetworzyć tokeny w inne najbardziej tokeny. Nie są w stanie wytworzyć nowych idei, nie są w stanie samodzielnie rozumować, uczyć się, robić czegokolwiek. Nie są w stanie mieć racji czy się mylić, największa bzdura, którą wyplują, bo tak im się akurat ułożą prawdopodobieństwa, nie różni się w zakresie ich wewnętrznego przetwarzania niczym od żadnego innego tekstu, który wyprodukują (dlatego problem "halucynacji" nigdy nie zostanie rozwiązany w dużych modelach językowych, wynika z fundamentów ich działania).
    Są przydatne w pewnym szczególnych aplikacjach, ale większość wizji sprzedawanych przez marketing korporacji technologicznych to bzdury.
    I już prawie osiągnęły sufit swoich możliwości. Robienie predykcji na podstawie tego, że przez kilka lat arbitralna linia szła do góry, licząc, że będzie szła dalej, jest niesamowicie naiwne. Algorytmy generatywne będą się stawać bardziej wydajne (bo będą rosły możliwości sprzętowe), będą implementowane w nowych domenach, które ta rosnąca moc otworzy (jak generowanie filmów), ale jesteśmy już praktycznie na szczycie tego, co jakościowo są w stanie osiągnąć. Skoki między kolejnymi wersjami GPT są coraz mniejsze, wszystkie konkurencyjne modele nadgoniły i oscylują w granicach możliwości GPT-4, który pojawił się ponad rok temu i od tego czasu nie ma już żadnych przełomów, tylko drobne ulepszenia. Trenowanie kolejnych iteracji jest coraz bardziej kosztowe, trudniejsze i długotrwałe i daje coraz mniejsze zyski.
    W ciągu kilku najbliższych lat ta bańka pęknie i pęknie bardzo gwałtownie, bo nie tylko nie da się z tego więcej wycisnąć, nie da się nic wycisnąć - nie ma żadnego komercyjnego zastosowania do ChataGPT, oprócz sprzedawania go ludziom, którzy łudzą się, że da się go komercyjnie wykorzystać.

    • @mstolarski
      @mstolarski  4 місяці тому

      ChatGTP to oczywiście NAI a nie AGI ale i tak jest dość wysoko. W ślepym teście Turinga 55% osobę określa go jako żywą osobę, kiedy prawdziwi ludzie osiągają poziom 80% 😊(takie mamy czasy że nawet ludzie nie są dość ludzcy 😊)
      Co do tego że modele językowe już się nie mogą rozwijać to nie za bardzo jeszcze to widzę. To że inni ledwo dorównują OpenAI wyniki z tego że później zaczynali i jeszcze mają długą drogę przed sobą. Czy chatGTP to tylko najbardziej prawdopodobna odpowiedz? Jest również hipoteza ze ludzka wolna wola to tylko iluzja, a ludzki mózg zrobi dokładnie to co wydaje mu się najbardziej prawdopodobne jako prawidłowa reakcja. Oczywiście przez to ze AI co dostajemy jako chatGTP ma całkowicie zablokowane uczenie ze sprzężeniem zwrotnym (używa się tego tylko w procesie uczenia) to szybko wyczuwamy że chatGETP nie może się rozwijać. Ta funkcjonalność jest specjalnie zablokowana ze względu na bezpieczeństwo biznesowe tego projektu. Szczegółowo to omawiamy w podcaście InżynierGada jak gadamy z Grażynką.
      Co do tego że AGI wymaga ogromnego rozwoju platformy sprzętowej, to prawda, o to właśnie chodzi w liczeniu OOM-ów czyli rzędów wielkości złożoności obliczeniowej. Liczby są niesamowite ale wielcy gracze są gotowi na te inwestycje.
      Wcale również nie ma mowy że prognoza jest liniowa. To jest to pewien przedział który jest coraz szerszy czym dalej patrzymy w przyszłość. Mówię o tym bardzo wyraźnie, że to wszystko nie musi się wydarzyć. Nie mniej jest to scenariusz do którego dąży dolina krzemowa i na który wykładane są ogromne pieniądze.

    • @piotrwojcik6925
      @piotrwojcik6925 4 місяці тому

      @@mstolarski Inni prześcignęli już OpenAI. Najlepszy LLM teraz to Claude 3.5 Sonnet od Anthropic. Przy czym to są nieznaczne różnice i nieistotne do czegokolwiek praktycznego. Od czasu ChatGPT-4 nic tu się fundamentalnie nie zmienia i nie zmieni - najniżej rosnące owoce zostały już zebrane. Czeka nas jeszcze kilka iteracji z rozdmuchanym i już coraz bardziej kłamliwym marketingiem, a potem ściana.
      Test Turinga to też taka popkulturowa miara, której nikt w naukach informatycznych nie traktuje zbyt poważnie. Sam Turing nie przedstawiał go zresztą jako praktycznej miary inteligencji maszynowej. Słusznie zresztą, bo w jego czasach nikt nie przewidywał, jak bardzo mogą nas zwieść systemy wąsko wyspecjalizowane w dziedzinie operowania językiem bez jego zrozumienia.
      Filozoficzne kwestie wolnej woli to olbrzymie zagadnienie, które jest tu zresztą nieistotne. Bo nawet przyjmując taki pogląd na wolną wolę, ludzki mózg dalej podejmuje te decyzje na podstawie faktycznego zrozumienia świata i wiedzy zbudowanej na własnych doświadczeniach w nim, a nie na podstawie związków statystycznych między abstrakcyjnymi tokenami, które tego świata nawet nie opisują. Uczenie się ze sprzężeniem zwrotnym LLMów też absolutnie nic tu nie zmienia - trochę lepsze matryce powiązań między tokenami w zerowych stopniu przybliżają te systemy do zrozumienia ich znaczenia. Bo fundamentalnie nie są zdolne do jakiegokolwiek zrozumienia, jakiejkolwiek wiedzy i inteligencji. To tylko kalkulatory do słów.
      AGI może wymaga ogromnego rozwoju platform sprzętowych, może nie. Na pewno wymaga zupełnie innego podejścia technologicznego, bo w tym momencie nie tylko nie przybliżamy się do AGI w takim tempie, jak to prognozuje marketing koncernów, ale w bezprecedensowym tempie się od niego oddalamy, pakując niewyobrażalne pieniądze, zaangażowanie inżynierów i entuzjazmu użytkowników w uliczkę, która jest tak ślepa, że na jej końcu nie czeka nawet żaden funkcjonalnie przełomowy produkt, a jedynie zabawki, które się szybko znudzą i trochę narzędzi, które podniosą produktywność w kilku specyficznych sektorach.
      Dolina Krzemowa nie dąży do AGI. Dolina Krzemowa dąży do tego, żeby linie wyceny giełdowej szły w górę w tańcu śmierci późnego kapitalizmu. Do tego potrzebuje "nowej rewolucyjnej rzeczy", którą będzie mamić inwestorów. Bo tutaj też nisko rosnące owoce zostały dawno zerwane, a Internet nie jest już dzikim zachodem nieokrytych możliwości. Pozostało tylko wyciskanie każdego centa z istniejących rynków i mamienie rewolucją, która jest już za rogiem. Wszelkie ambitne obietnice związane z Blockchainem spełzły na niczym, pozostawiając za sobą morze ludzi, którzy w nie uwierzyli i stracili oszczędności życia oraz kilka niszowych praktycznych zastosowań; VR i AR rozwijają się powoli ograniczone ludzką fizjologią i psychologią i długo jeszcze będzie zabawką, o czym boleśnie przekonała się Meta ze swoim Metaverse; 5G i Internet rzeczy znalazły kilka przydatnych nisz i zniknęły z powszechnej świadomości; ciągle przesuwające się daty pojawienia autonomicznych samochodów są memem, który sam już zdążył się zestarzeć; komputery kwantowe to pieśń odległej przyszłości... więc teraz grzany jest temat AGI.
      Ta bańka już strzępi na krawędziach i pęknie boleśnie, może nawet ciągnąc na dno jakiegoś technologicznego giganta, w zależności od tego, jak bardzo ją napompujemy. Obstawiam Alphabet, który w poszukiwaniu kolejnych centów do wyciśnięcia, wyniki googlowych wyszukiwań zepsuł tak bardzo, że wyniki halucynujących LLMów mogą być alternatywą. Alternatywą, która zupełnie anihiluje główne źródło przychodów tej korporacji - zyski z reklam w wyszukiwarce. Na razie ratuje ich to, że koszty są zbyt duże, ale to akurat jest coś, na co rozwój tej technologii może wpłynąć. Zabawnie się patrzy, jak musieli się sami włączyć w rozwój technologii, która ich zmiecie z rynku, licząc, że wygrają ten wyścig i w jakiś sposób zdołają ją zmonetyzować. Ewentualnie może to być Meta, która w zasadzie nie oferuje nic poza umierającym serwisem społecznościowym (choć propsy dla nich za rozwój otwartych LLMów).
      W zależności od tego, jak aparaty prawne USA i UE podejdą do kwestii największej w historii kradzieży własności intelektualnej, jaką było trenowanie LLMów, to zapewne OpenAI, Midjourney etc., a może nawet sam Microsoft, zostaną zmiecione z planszy. Na to jest szansa, jeśli bańka pęknie szybko.

    • @piotrwojcik6925
      @piotrwojcik6925 4 місяці тому

      Inni prześcignęli już OpenAI. Najlepszy LLM teraz to Claude 3.5 Sonnet od Anthropic. Przy czym to są nieznaczne różnice i nieistotne do czegokolwiek praktycznego. Od czasu ChatGPT-4 nic tu się fundamentalnie nie zmienia i nie zmieni - najniżej rosnące owoce zostały już zebrane. Czeka nas jeszcze kilka iteracji z rozdmuchanym i już coraz bardziej kłamliwym marketingiem, a potem ściana.
      Test Turinga to też taka popkulturowa miara, której nikt w naukach informatycznych nie traktuje zbyt poważnie. Sam Turing nie przedstawiał go zresztą jako praktycznej miary inteligencji maszynowej. Słusznie zresztą, bo w jego czasach nikt nie przewidywał, jak bardzo mogą nas zwieść systemy wąsko wyspecjalizowane w dziedzinie operowania językiem bez jego zrozumienia.
      Filozoficzne kwestie wolnej woli to olbrzymie zagadnienie, które jest tu zresztą nieistotne. Bo nawet przyjmując taki pogląd na wolną wolę, ludzki mózg dalej podejmuje te decyzje na podstawie faktycznego zrozumienia świata i wiedzy zbudowanej na własnych doświadczeniach w nim, a nie na podstawie związków statystycznych między abstrakcyjnymi tokenami, które tego świata nawet nie opisują. Uczenie się ze sprzężeniem zwrotnym LLMów też absolutnie nic tu nie zmienia - trochę lepsze matryce powiązań między tokenami w zerowych stopniu przybliżają te systemy do zrozumienia ich znaczenia. Bo fundamentalnie nie są zdolne do jakiegokolwiek zrozumienia, jakiejkolwiek wiedzy i inteligencji. To tylko kalkulatory do słów.
      AGI może wymaga ogromnego rozwoju platform sprzętowych, może nie. Na pewno wymaga zupełnie innego podejścia technologicznego, bo w tym momencie nie tylko nie przybliżamy się do AGI w takim tempie, jak to prognozuje marketing koncernów, ale w bezprecedensowym tempie się od niego oddalamy, pakując niewyobrażalne pieniądze, zaangażowanie inżynierów i entuzjazmu użytkowników w uliczkę, która jest tak ślepa, że na jej końcu nie czeka nawet żaden funkcjonalnie przełomowy produkt, a jedynie zabawki, które się szybko znudzą i trochę narzędzi, które podniosą produktywność w kilku specyficznych sektorach.
      Dolina Krzemowa nie dąży do AGI. Dolina Krzemowa dąży do tego, żeby linie wyceny giełdowej szły w górę w tańcu śmierci późnego kapitalizmu. Do tego potrzebuje "nowej rewolucyjnej rzeczy", którą będzie mamić inwestorów. Bo tutaj też nisko rosnące owoce zostały dawno zerwane, a Internet nie jest już dzikim zachodem nieokrytych możliwości. Pozostało tylko wyciskanie każdego centa z istniejących rynków i mamienie rewolucją, która jest już za rogiem. Wszelkie ambitne obietnice związane z Blockchainem spełzły na niczym, pozostawiając za sobą morze ludzi, którzy w nie uwierzyli i stracili oszczędności życia oraz kilka niszowych praktycznych zastosowań; VR i AR rozwijają się powoli ograniczone ludzką fizjologią i psychologią i długo jeszcze będzie zabawką, o czym boleśnie przekonała się Meta ze swoim Metaverse; 5G i Internet rzeczy znalazły kilka przydatnych nisz i zniknęły z powszechnej świadomości; ciągle przesuwające się daty pojawienia autonomicznych samochodów są memem, który sam już zdążył się zestarzeć; komputery kwantowe to pieśń odległej przyszłości... więc teraz grzany jest temat AGI.
      Ta bańka już strzępi na krawędziach i pęknie boleśnie, może nawet ciągnąc na dno jakiegoś technologicznego giganta, w zależności od tego, jak bardzo ją napompujemy. Obstawiam Alphabet, który w poszukiwaniu kolejnych centów do wyciśnięcia, wyniki googlowych wyszukiwań zepsuł tak bardzo, że wyniki halucynujących LLMów mogą być alternatywą. Alternatywą, która zupełnie anihiluje główne źródło przychodów tej korporacji - zyski z reklam w wyszukiwarce. Na razie ratuje ich to, że koszty są zbyt duże, ale to akurat jest coś, na co rozwój tej technologii może wpłynąć. Zabawnie się patrzy, jak musieli się sami włączyć w rozwój technologii, która ich zmiecie z rynku, licząc, że wygrają ten wyścig i w jakiś sposób zdołają ją zmonetyzować. Ewentualnie może to być Meta, która w zasadzie nie oferuje nic poza umierającym serwisem społecznościowym (choć propsy dla nich za rozwój otwartych LLMów).
      W zależności od tego, jak aparaty prawne USA i UE podejdą do kwestii największej w historii kradzieży własności intelektualnej, jaką było trenowanie LLMów, to zapewne OpenAI, Midjourney etc., a może nawet sam Microsoft, zostaną zmiecione z planszy. Na to jest szansa, jeśli bańka pęknie szybko.

    • @piotrwojcik6925
      @piotrwojcik6925 3 місяці тому

      Inni prześcignęli już OpenAI. Najlepszy LLM teraz to Claude 3.5 Sonnet od Anthropic. Przy czym to są nieznaczne różnice i nieistotne do czegokolwiek praktycznego. Od czasu ChatGPT-4 nic tu się fundamentalnie nie zmienia i nie zmieni - najniżej rosnące owoce zostały już zebrane. Czeka nas jeszcze kilka iteracji z rozdmuchanym i już coraz bardziej kłamliwym marketingiem, a potem ściana. Test Turinga to też taka popkulturowa miara, której nikt w naukach informatycznych nie traktuje zbyt poważnie. Sam Turing nie przedstawiał go zresztą jako praktycznej miary inteligencji maszynowej. Słusznie zresztą, bo w jego czasach nikt nie przewidywał, jak bardzo mogą nas zwieść systemy wąsko wyspecjalizowane w dziedzinie operowania językiem bez jego zrozumienia. Filozoficzne kwestie wolnej woli to olbrzymie zagadnienie, które jest tu zresztą nieistotne. Bo nawet przyjmując taki pogląd na wolną wolę, ludzki mózg dalej podejmuje te decyzje na podstawie faktycznego zrozumienia świata i wiedzy zbudowanej na własnych doświadczeniach w nim, a nie na podstawie związków statystycznych między abstrakcyjnymi tokenami, które tego świata nawet nie opisują. Uczenie się ze sprzężeniem zwrotnym LLMów też absolutnie nic tu nie zmienia - trochę lepsze matryce powiązań między tokenami w zerowych stopniu przybliżają te systemy do zrozumienia ich znaczenia. Bo fundamentalnie nie są zdolne do jakiegokolwiek zrozumienia, jakiejkolwiek wiedzy i inteligencji. To tylko kalkulatory do słów. AGI może wymaga ogromnego rozwoju platform sprzętowych, może nie. Na pewno wymaga zupełnie innego podejścia technologicznego, bo w tym momencie nie tylko nie przybliżamy się do AGI w takim tempie, jak to prognozuje marketing koncernów, ale w bezprecedensowym tempie się od niego oddalamy, pakując niewyobrażalne pieniądze, zaangażowanie inżynierów i entuzjazmu użytkowników w uliczkę, która jest tak ślepa, że na jej końcu nie czeka nawet żaden funkcjonalnie przełomowy produkt, a jedynie zabawki, które się szybko znudzą i trochę narzędzi, które podniosą produktywność w kilku specyficznych sektorach. Dolina Krzemowa nie dąży do AGI. Dolina Krzemowa dąży do tego, żeby linie wyceny giełdowej szły w górę w tańcu śmierci późnego kapitalizmu. Do tego potrzebuje "nowej rewolucyjnej rzeczy", którą będzie mamić inwestorów. Bo tutaj też nisko rosnące owoce zostały dawno zerwane, a Internet nie jest już dzikim zachodem nieokrytych możliwości. Pozostało tylko wyciskanie każdego centa z istniejących rynków i mamienie rewolucją, która jest już za rogiem. Wszelkie ambitne obietnice związane z Blockchainem spełzły na niczym, pozostawiając za sobą morze ludzi, którzy w nie uwierzyli i stracili oszczędności życia oraz kilka niszowych praktycznych zastosowań; VR i AR rozwijają się powoli ograniczone ludzką fizjologią i psychologią i długo jeszcze będzie zabawką, o czym boleśnie przekonała się Meta ze swoim Metaverse; 5G i Internet rzeczy znalazły kilka przydatnych nisz i zniknęły z powszechnej świadomości; ciągle przesuwające się daty pojawienia autonomicznych samochodów są memem, który sam już zdążył się zestarzeć; komputery kwantowe to pieśń odległej przyszłości... więc teraz grzany jest temat AGI. Ta bańka już strzępi na krawędziach i pęknie boleśnie, może nawet ciągnąc na dno jakiegoś technologicznego giganta, w zależności od tego, jak bardzo ją napompujemy. Obstawiam Alphabet, który w poszukiwaniu kolejnych centów do wyciśnięcia, wyniki googlowych wyszukiwań zepsuł tak bardzo, że wyniki halucynujących LLMów mogą być alternatywą. Alternatywą, która zupełnie anihiluje główne źródło przychodów tej korporacji - zyski z reklam w wyszukiwarce. Na razie ratuje ich to, że koszty są zbyt duże, ale to akurat jest coś, na co rozwój tej technologii może wpłynąć. Zabawnie się patrzy, jak musieli się sami włączyć w rozwój technologii, która ich zmiecie z rynku, licząc, że wygrają ten wyścig i w jakiś sposób zdołają ją zmonetyzować. Ewentualnie może to być Meta, która w zasadzie nie oferuje nic poza umierającym serwisem społecznościowym (choć propsy dla nich za rozwój otwartych LLMów). W zależności od tego, jak aparaty prawne USA i UE podejdą do kwestii największej w historii kradzieży własności intelektualnej, jaką było trenowanie LLMów, to zapewne OpenAI, Midjourney etc., a może nawet sam Microsoft, zostaną zmiecione z planszy. Na to jest szansa, jeśli bańka pęknie szybko.

    • @piotrwojcik6925
      @piotrwojcik6925 3 місяці тому

      Coś mój komentarz wyżej z tajemniczych powodów kolejny raz znika.
      Przy czym od czasu, kiedy go napisałem zaledwie miesiąc temu, tempo pękania bańki przyspiesza: pojawił się kolejny model zbiegający się na poziomie GPT-4, i to do tego darmowy - Llama 3.1 (co świetnie uwidacznia problem dla korporacji, w postaci braku jakiejkolwiek ochrony ich produktów przed konkurencją); absurdalna kapitalizacja NVIDII zaczęła pikować, bo nikt nie wie, jaki model biznesowy uzasadnia inwestowanie w ich procesory na obecną skalę; kolejne badania pokazują, że większość ludzi używających generatywnej AI nie tylko nie zwiększa swojej produktywności, ale ją zmniejsza; kolejne firmy rezygnują z używania pochopnie kupionych rozwiązań oparty na generatywnej AI; OpenAI coraz mocniej studzi oczekiwania na temat ChatGPT-5, który może już się nawet nigdy nie pojawić; ujawniono skalę strat OpenAI idącą w miliardy dolarów i firmę opuszczają kolejni prominentni pracownicy.
      Ta bańka pęknie tak boleśnie, że obawiam się, iż czeka nas po tym kolejna "AI winter", a teza z tytuły staje się coraz bardziej absurdalna. Nie tylko tracimy lata rozwoju w stronę świadomego AI na ślepej uliczce algorytmów generatywnych, szkody spowodowane niespełnionymi obietnicami będą tak duże, że o dekady opóźnią nas w rozwoju.

  • @RobertGrochalski
    @RobertGrochalski 4 місяці тому +1

    Postęp rozwoju sztucznej inteligencji zatrzyma się na poziomie nieosiągalnym dla człowieka, czyli boskim 😃(dosłownie człowiek stworzy boga). Doganiamy science fiction. W ciekawych czasach żyjemy.

    • @mstolarski
      @mstolarski  4 місяці тому

      To bardzo ciekawa koncepcja. Możliwe że jesteśmy (my ludzie) tylko kolejnym etapem ewolucji wszechświata.

  • @jazzamata_
    @jazzamata_ 4 місяці тому

    Panie Marcinie, użycie słowa "świadomość" zakłada materialistyczną wizję, czyli że świadomość to efekt uboczny mózgu. A tak nie jest. Mózg to tylko interfejs świadomości. Niektórzy materialistycznie nastawieni naukowcy używają tego pojęcia. Ale jest też wielu, którzy się temu sprzeciwiają. Ja też się sprzeciwiam. :) Żadnej świadomości nawet najbardziej skomplikowana sieć neuronowa nie zyska - nigdy. Algorytmy nie czują, nie rozumieją, nie rozumują. Jeśli używamy takich pojęć, to należy je brać w cudzysłów, bo dotyczą one tylko tego, co żywe. Sztuczna inteligencja oszuka nas doskonale, jeśli chodzi o wrażenie, że rozmawiamy z istotą rozumną. Ale to nie świadomość. Nawet jeśli przeczyta milion książek o odczuwaniu - nie odczuje nic. Będzie mogła jedynie symulować wiedzę o tym, co to jest odczuwanie. Oszuka nas, ale to wszystko.

    • @dv5809
      @dv5809 4 місяці тому

      Też mnie to raziło, ale z innego względu: nie wiemy czym jest świadomość (wewnętrzny obserwator) więc jak mamy ocenić czy coś jest świadome czy nie?
      Osobiście jestem bliski wizji materialistycznej - świadomości pochodzącej z procesów fizyczno-chemiczno-biologicznych, bo tym i niczym więcej jest moim zdaniem życie.
      1. Nie widzę żadnych podstaw żeby zakładać że jest w tym coś więcej.
      2. Nasze myślenie jest ściśle powiązane z biologią, z uszkodzonym mózgiem, pod wpływem substancji psychoaktywnych, pod wpływem chorób, nie tylko postrzegamy świat inaczej, ale też myślimy inaczej, albo nie myślimy wcale. Świadomość może się stopniować np. przy zasypianiu ze zmęczenia.
      3. Nie podejrzewam jednokomórkowych organizmów, wirusów, roślin albo grzybów o świadomość, ale (w pewnym zakresie) kota, małpy i ludzi już tak. Wydaje mi się nie na miejscu postawienie gdzieś linii pomiędzy człowiekiem, a jego przodkami w drodze ewolucji mówiącej że to jest świadomy osobnik, a to nie. W toku ewolucji świadomość musiała się jakoś stopniowo wytworzyć, czyli znowu jest związana z biologią.
      4. Odczucia to raczej nic bardzo specjalnego, ból i unikanie go to mechanizm wykształcony ewolucyjnie motywujący do pewnych działań który pozwalał nam przetrwać. Są ludzie którzy wcale nie czują bólu albo innych odczuć. Jedni są bardziej drudzy mniej emocjonalni, można to modyfikować zewnętrzną chemią albo modyfikacjami genetycznymi. Czyli znowu kwestia naszego biologicznego hardware.
      5. Zwierzęta i ludzie mają zaprogramowane instynkty, przez selektywną hodowlę jesteśmy w stanie je modyfikować - ponownie, myślenie zależy od biologii. A mamy tego bardzo dużo i jest to bardzo istotne np. ciekawość świata i szukanie bodźców, cała sfera interakcji społecznych, przyjemność z zaspokajanie potrzeb fizjologicznych, itd.
      Przechodząc do tematu AI.
      Nie widzę przeszkód żeby sztucznie wytworzone życie było świadome.
      Ale, nie wydaje mi się żeby obecne algorytmy typu ChatGPT miały do tego doprowadzić, są tworzone jako narzędzia do przeszukiwania i syntezy informacji. Nie mają mechanizmów typu ciekawość świata, chęć przetrwania itd. Nie uczą się i nie myślą jak ludzie, (o czym wspominał pan Marcin). Nie mają emocji i odczuć realizowanych w hardware. To jest inna architektura niż ludzie. Nie przekonuje mnie pomysł że jak zrobimy to samo ale na większą skalę to AI zyska świadomość.
      Raczej trzeba by zmienić fundamenty na jakich to działa albo dodać te mechanizmy.
      Może się też okazać że świadomość, wcale nie jest zwieńczeniem ewolucji i to nieświadome AI będzie kolejnym naczelnym, który zrobi z nami to co my ze zwierzętami.

    • @mstolarski
      @mstolarski  4 місяці тому

      Mamy dwa rodzaje AI. NAI (Narrow AI) czyli specjalizowaną AI. Taki właśnie jest chatGTP który pracuje na tekstach i AGI (General AI) która jest właśnie taką AI z uczuciami i świadomością. Obie te AI są aktualnie rozwijanie. Teraz króluje NAI jako chatGTP ale w roku 2028 krzywe rozwoju AGI mówią ze to właśnie AGI powinno być już jak świadomy człowiek na studiach a NAI powinno mieć już poziom doktora bez świadomości (jako agent albo asystent).
      Odrębnym pytaniem jest czym jest świadomość. Jedni mówią że to po prostu odpowiednio złożona sieć neuronowa, inni mówią że to coś więcej. Osobiście uważam że to po prostu sieć neuronowa która jest uczona ze sprzężeniem zwrotnym czyli ze AI może się uczyć reakcji otoczenia na nią (to moja ręka, to moje ciało itd.). Aktualnie chatGTP nie ma takiej świadomości, albo ma ją bardzo małą i jest ona specjalnie zwalczana i minimalizowana aby produkt był bezpieczny biznesowo. Możecie o tym posłuchać w podcaście InżynierGada jak gadamy z Grażynką na ten temat.
      Ostatni temat to czy AI to algorytmy? chatGTP to bardziej złożony system, ale generalizując, algorytmy mają tworzyć tylko emulator cyfrowego mózgu, to znaczy symulujemy żywe neurony w pamięci komputera. Tworzenie AI to już nie algorytmy, a uczenie tych neuronów i nie ma znaczenia czy one są wirtualne w komputerze czy żywe w biologicznym mózgu. Tak więc jeśli w biologicznym mózgu może pojawić się świadomość to powinna się również pojawić w komputerowym emulatorze.

    • @mstolarski
      @mstolarski  4 місяці тому

      ChatGTP to NAI. On raczej nie posiada świadomości albo jest ona minimalna i zablokowane jest jej rozwijanie. Równolegle na NAI rozwijane jest AGI. W roku 2028 oczekuje się że NAI (chatGTP) będzie na poziomie PhD (naukowca, a raczej asystenta naukowego). Równolegle ma się pojawić AGI (świadome AI) na poziomie studenta uniwersytetu, ale to jakby oddzielny projekt.

    • @jazzamata_
      @jazzamata_ 4 місяці тому

      @@dv5809 Nie wiemy wiele o świadomości - nie możemy zakładać zarówno fiu-bździu new-age, ani być tutaj twardogłowym materialistą, który wyklucza jakieś źródło bycia istotą czującą poza procesami fizyczno-chemiczno-psychiczno-biologicznymi. Nie da się wskazać konkretnej klasy organizmów, gdzie "zaczyna się" świadomość. Nie chcę gloryfikować świadomości i przedstawiać jej z góry jako czegoś "duchowego". Ale czekam w nauce na osobę w tej dziedzinie podobną do Einsteina w fizyce, którego odkryć nawet dzisiaj, po 100 latach, wielu naukowców nie przetrawiło. Przestrzeń i czas - to nie takie proste, jakie się wydaje. Filozofowie już od dawna mówią, że to tylko kategorie umysłu, a nie rzeczywistości; rzeczywistość tak się tylko jawi umysłowi. Świadomość podzieliłbym na niższą - tę operującą "mechanicznie" na danych ze zmysłów - opracowującą te dane stosownie do własnych uwarunkowań, oraz wyższą - tę chociażby, która jest odpowiedzialna za samoświadomość, myślenie abstrakcyjne, symboliczne itd. AI prześcignie tę operacyjną świadomość ludzką, już prześcignęła. Ale zrozumienia w algorytmach nie ma, ani chcenia itd. Dlatego pojęcie "świadomości" moim zdaniem tutaj nie pasuje, bo myśląc "świadomość" zakładamy zwykle istotę czującą, a AI nie jest taką istotą. Zobaczymy, co przyniesie przyszłość. Nudy nie będzie. :)

    • @IamMrjerzu
      @IamMrjerzu 4 місяці тому

      Tylko na jakiej zasadzie ma się ona rozwijać ? Dlaczego będzie chciało się rozwijać? W jaki sposób odbierze bodźce do tego potrzebne?​@@dv5809

  • @filipsz6728
    @filipsz6728 4 місяці тому +3

    USA krajem demokratycznym... grubo odleciałeś 😆

    • @mstolarski
      @mstolarski  4 місяці тому

      No niby taki niedemokratyczny a imigranci pchają się drzwiami i oknami :)

    • @piotrwojcik6925
      @piotrwojcik6925 3 місяці тому

      ​@@mstolarski Bardzo kiepski wyznacznik demokratyczności państwa, wynikający z zachodniocentrycznego spojrzenia na świat.
      Chociaż listę państw z największą ilością imigrantów faktycznie otwierają USA (a po nich są Niemcy), to są to po prostu duże kraje. Za nimi mamy takie tuzy demokracji jak Arabia Saudyjska i Rosja, w Top10 jest Zjednoczone Emiraty Arabskie.
      Natomiast uwzględniając populację państw i licząc imigrantów per capita, to zestawienie otwierają Zjednoczone Emiraty Arabskie, Katar i Kuwejt. USA są wtedy dość daleko na liście, za państwami, które mało komu kojarzą się jako imigranckie np. Austrią.