ChatGPT 4o - nowe, przełomowe funkcje GPT, obejrzyj podsumowanie i konferencję OpenAI po polsku

Поділитися
Вставка
  • Опубліковано 2 чер 2024
  • 👉🏻Prowadzisz firmę? Dołącz do społeczności Praktycznie o AI i bądź na bieżąco: spolecznosc.praktycznieo.ai/
    OpenAI ujawniło 13 maja przełomowy model GPT-4o oraz szereg innych funkcjonalności które odmienią sposób, w jaki korzystamy z ChatGPT. Obejrzyj podsumowanie oraz konferencję przetłumaczoną na język polski
    00:00 - Podsumowanie
    02:02 - Keynote Speech - Mura Murati
    10:54 - Demonstracje
  • Навчання та стиль

КОМЕНТАРІ • 84

  • @Sergon121
    @Sergon121 19 днів тому +17

    Fajnie, że jest jakiś polski twórcy który przekazuje najświeższe nowinki. Powodzenia!

  • @Yakimek62
    @Yakimek62 16 днів тому +3

    Lektor oddaje nawet emocje! Brawo!

  • @TWARDOWSKY.
    @TWARDOWSKY. 8 днів тому +2

    Przypominam, że Open ai jest organizacja non profit to musi być tanie i za darmo.

  • @user-gk7iq6if9q
    @user-gk7iq6if9q 16 днів тому +4

    Mira Murati 👌

  • @andrzejwodynski
    @andrzejwodynski 19 днів тому +7

    Świąt teraz bardzo przyśpieszy teraz każdy człowiek może pracować z prędkością 20 osób. wow.

    • @asics431
      @asics431 19 днів тому +5

      Nie, mylisz się, to AI bedzie pracować za 20 osób, a te 20 osób trafi na bruk

    • @maroman3366
      @maroman3366 14 днів тому

      @@asics431 Zmieni branze.

    • @wojownicza12
      @wojownicza12 10 днів тому

      ​@@asics431znajdą inne prace, bo zamiast tych będzie co innego

  • @Davenport83
    @Davenport83 20 днів тому +2

    Dobra robota! Dzięki.

    • @PraktycznieoAI
      @PraktycznieoAI  20 днів тому

      Cała przyjemnosć po mojej stronie - dziękuję za obejrzenie!

  • @neuronscale
    @neuronscale 19 днів тому +3

    To jest właśnie ciekawe. Jak podaje OpenAI na swoim blogu w postach o nowym GPT-4o, ten model składa się trzech innych modeli. Pierwszy model zajmuje się transformacją audio na tekst. Drugi model, klasy GPT-3.5 lub GPT-4, przyjmuje tekst na wejściu i generuje tekst na wyjściu. Trzeci model transformuje tekst z powrotem do audio. Sam GPT-4, bez dodatkowych ulepszeń, nie byłby w stanie przetwarzać tego typu danych i na przykład wykazywać emocji. Dodatkowo średni czas odpowiedzi wynosi około 320 milisekund, co według OpenAI odpowiada prawie czasom interakcji z człowiekiem. Jednak ja zaznacza sam OpenAI, jest to pierwsze podejście do takiej architektury i najnowszy model wziąć pozostaje w fazie badań i ulepszeń. Dlatego z czasem można się spodziewać kolejnych ulepszeń. Interesujące jest obserwowanie, jak to wszystko się rozwija i ewoluuje.

    • @PraktycznieoAI
      @PraktycznieoAI  19 днів тому

      Bardzo ciekawe! Tego jeszcze nie doczytałem

    • @DevPythonUnity
      @DevPythonUnity 19 днів тому

      Bo oni Ci powiedzą prawdę, Takie składanki to od roku sami mogliśmy robić, To raczej wygląda na Równoczesny trening różnych modalności, (audio INOUT, VISION IN OUT, TEKST INOUT) dzięki takiemu treningowi masz spójność danych,, Minus tego ze wytrenowanie tego musi być kosmicznie drogie, bo Tata->Ojciec , mniej kosztuje niż(Tata,zdjecie,audio,tekst,emocja-> multimodealny output)

    • @PraktycznieoAI
      @PraktycznieoAI  19 днів тому

      Takie składanki też w pracy robimy, ale opóźnienie rzędu 0,3 sekundy to nieosiągalne marzenie

    • @DevPythonUnity
      @DevPythonUnity 11 днів тому +2

      @@PraktycznieoAI :nieosiągalne marzenie?. Zobacz ze ludzie szybko odpowiadają tylko na proste pytania, Jak pojawia się coś trudniejszego to ludzie mówią" Emmm ymmmm, yhymmm,eeeeeee, i tak samo mozna robić z modelami, najpierw dane wlatują do modelu uproszczonego który ma na szybko coś wymyślić z ograniczoną ilością audio i dźwięku, Model na szybko generuje :"EMmm, zadałeść ciekawe pytanie, muszie się chwilke nad tym zastanowić, emm, ok, juz wiem: odtwarzanie tego audio zajeło 4sekundy, i było bufforem dla generacji dłuzszego audio z realną odpowiedzią.. Efekt jest taki ze z Twojej perspektywy miałeś ciągłość wypowiedzi, gdy tymczasem model uzywał odtwarzania 1 odpoweidzi jako buffor czasowy do generacji odp nr 2. Zreszta ludzie preferują Wypowiedzi zawierajace przerwyniki, ponieważ daje im to czas na analizowanie, interpetacje, mozliwosc wtrącenia, itd

    • @PraktycznieoAI
      @PraktycznieoAI  11 днів тому +1

      Świetna obserwacja! Taki sam efekt osiągamy poprzez "streaming" odpowiedzi (to, że nie pojawia się ona cała już wygenerowana, tylko widzimy jak jest "drukowana"). Użytkownik już zaczyna czytać odpowiedź po ułamku sekundy, a model sobie spokojnie generuje dalsze tokeny

  • @Savoy12quo
    @Savoy12quo 15 днів тому +1

    Czy mi się wydaje , czy ta nowość jest póki co dostępna w pełnej wersji na ios bo na android nie widzę takiej opcji mimo , że mam subskrybcje plus . Widzę dostępny nowy model gpt 4.o ale w sumie nic się nie zmienia po jego wybraniu.

    • @PraktycznieoAI
      @PraktycznieoAI  15 днів тому +1

      Powinien działać trochę szybciej - spróbuj puścić prompt w jednym i drugim modelu

    • @oil-pastels-by-marta
      @oil-pastels-by-marta 14 днів тому

      W starszym modelu na razie wychodzi lepiej.

  • @xevil21
    @xevil21 17 днів тому +2

    Rozwaliło mnie z tym internetem po kablu, czyli internet mobilny oraz WiFi nie daje rady do rozmawiania z nowym chat gpt w czasie rzeczywistym? :D

    • @formless1000
      @formless1000 17 днів тому

      Tak mam płatną wersję i przy zdalnym Internecie różnie to bywa. Chcieli uniknąć wtopy na wizji.

  • @wojciechs7129
    @wojciechs7129 19 днів тому +2

    Dzięki

  • @miroslawskik
    @miroslawskik 17 днів тому

    Tłumaczenie kuleje. Tłumaczę jeszcze jakiś czas popracują.

    • @PraktycznieoAI
      @PraktycznieoAI  17 днів тому

      Niewątpliwie - aczkolwiek nie stawiałbym specjalnie na ten zawód, jeśli bym pisał teraz maturę

  • @Lukasz__1983
    @Lukasz__1983 19 днів тому +2

    Moim zdaniem wprowadzenie GTP4-o dla darmowych użytkowników to taka reklama w formie demo. W wersji darmowej użyłem go z 5 do 10 razy i pojawił się komunikat, aby spróbować jutro, ale jeśli chcesz kontynuować to kup wersję płatną. Co ciekawe, nie znalazłem opcji, aby wyłączyć GTP4-o, które staje się domyślne. Tak więc jeśli ktoś chciałby generować przez jakiś czas na 3.5 i zaoszczędzić ten limit na bardziej skomplikowane zadania to się po prostu nie da. Model w wersji darmowej czatu można zmieniać dopiero po wygenerowaniu tekstu. Nie natomiast z wysuwanej listy po lewej stronie (jak ma to miejsce w wersji płatnej).

    • @PraktycznieoAI
      @PraktycznieoAI  19 днів тому +2

      Myślę, że za tym stoi parę rzeczy:
      1. Chęć dotarcia do jak największej bazy użytkowników (Do tej pory GPT-4 za darmo był tylko w Microsoft Copilot)
      2. Chęć pokazania, że AI jest lepsze niż większość myśli - część osób korzystała z 3.5 i rezygnowała, będąc rozczarowana wynikami. I nie wiedząc, że GPT 4 jest 10x lepszy. Podejrzewam, że ta blokada wykorzystania 3.5 to właśnie chęć zmuszenia do zobaczenia, co potrafi GPT 4o
      3. Tak, upsell i chęć dosprzedaży kont płatnych :)

  • @kecz1231
    @kecz1231 18 днів тому

    Bezpłatna wersja 4o będzie wprowadzana w najbliższych tygodniach, ale jak wykupię wersję płatną, to będę miał ją od razu?

    • @PraktycznieoAI
      @PraktycznieoAI  18 днів тому +1

      Mam wersję płatną i GPT-4o jest dostępny - więc myślę, że tak

    • @kecz1231
      @kecz1231 18 днів тому +2

      @@PraktycznieoAI kupiłem, jest dostępne

  • @Mr_Plum
    @Mr_Plum 14 днів тому

    Spróbowałem dokładnie tego co było na prezentacji i nie działa. Nie da się wtrącić czegoś w trakcie kiedy GPT mówi. Próbowałem też z tymi emocjami. Mówił ok, spróbuje ale za każdym razem było tak samo. Ktoś zna odpowiedz dlaczego tak jest?

    • @Mr_Plum
      @Mr_Plum 14 днів тому

      Mam wersje płatną

    • @oil-pastels-by-marta
      @oil-pastels-by-marta 14 днів тому

      Nie jest jeszcze wdrożony. Ja tez mam nowy model i starszy dzaiala lepiej.

    • @PraktycznieoAI
      @PraktycznieoAI  14 днів тому +1

      Ta funkcjonalność przerywania i "emocjonalność" jeszcze nie jest wdrożona - na razie, to co jest dostępne to nowy model w zakresie tekstu i rozpoznawania obrazów, mowa jest jeszcze po staremu

  • @AtreyuBastian
    @AtreyuBastian 17 днів тому

    A jest szansa że kiedyś będzie za darmo dla zwykłych użytkowników?

    • @xevil21
      @xevil21 17 днів тому

      Teraqz podobno udostępniają za darmo, pewnie w celu trenowania modeli. Kiedyś będziemy za to słono płacić.

    • @PraktycznieoAI
      @PraktycznieoAI  17 днів тому

      Mają w przeciągu kilku tygodni udostępnić za darmo wszystkim - ale nie podali dokładnej daty

  • @Krzysiek-KingRagnar
    @Krzysiek-KingRagnar 19 днів тому +3

    Czy wiadomo, kiedy będzie to dostępne w Polsce. Na razie mam tylko 4.0 i 3.5.

    • @PraktycznieoAI
      @PraktycznieoAI  19 днів тому +2

      Krzysiek, jest już dostępne - przeloguj się w aplikacji, ja miałem dostępne zaraz po konferencji

    • @Krzysiek-KingRagnar
      @Krzysiek-KingRagnar 19 днів тому +1

      @@PraktycznieoAI Po przelogowaniu mam do wyboru 3.5 i 4.0 (płatne). :( Założyłem nawet nowe konto w nowej domenie - widzę tylko 2 modele.

    • @PraktycznieoAI
      @PraktycznieoAI  19 днів тому +1

      Rozumiem - dla użytkowników bezpłatnych, model GPT-4o ma być udostępniany stopniowo w nadchodzących tygodniach dopiero

    • @aleksandergolawski375
      @aleksandergolawski375 19 днів тому

      @@PraktycznieoAI Oki, dwa miesiace temu zrezygnowalem z subskrybcji 4.0 i tak samo jak Krzysiek mam dostepną cały czas wersje 3.5. Rozumiem ze jak wznowie to bede mial od razu 4o a jak nie chce placic to musze poczekac pare tygodni az mi "sama wskoczy" ?
      Wiem ze nie jestes supportem openAi ale moze bedziesz mogl potwierdzicz czy dobrze kumam :P
      Pozdro.

    • @andrzejwodynski
      @andrzejwodynski 19 днів тому

      Ja już mam tego chata 4o, z Holandii jestem

  • @stegolasx
    @stegolasx 18 днів тому +3

    co to za tłumaczenie śmiech na sali

  • @mirelaanna9923
    @mirelaanna9923 11 днів тому

    Czy rozumie język polski?

  • @pawenowak7239
    @pawenowak7239 17 днів тому +2

    znasz może jakie rozszerzenie do chrome które tłumaczy automatycznie filmy na yt na polski język?

  • @Pankomentator
    @Pankomentator 19 днів тому +1

    Totalnie sie tym nie podniecam - w dluzszej perspektywie jest duuze ryzyko ze wszyscy skonczymy przez AI z depresja na dochodzie gwarantowanym

    • @PraktycznieoAI
      @PraktycznieoAI  19 днів тому +2

      Sam Altman ostatnio wygłosił tezę, że dochód gwarantowany powinien być dawany w postaci... mocy obliczeniowej, a nie pieniędzy. Może się skończyć utopią, albo dystopią... kto wie

    • @Mario988Rock
      @Mario988Rock 19 днів тому +3

      Dobrze że wybrałem rzemiosło 😊

  • @wszystko_dobrze
    @wszystko_dobrze 14 днів тому +1

    Autor filmu zdaje się, że nie pokusił się nawet o sprawdzenie efektów translacji przez 11 Labs przed wypuszczeniem materiału, bo dubbing tego gościa który trzyma telefon jest asluchalny, nie dałem rady oglądać dłużej. I to pokazuje idealnie, że owszem, sztuczna inteligencja może usprawniać pracę, natomiast na ślepe zaufanie w jej możliwości jest za wcześnie. Słabe podejście.

    • @PraktycznieoAI
      @PraktycznieoAI  14 днів тому +1

      Dziękuję za feedback - faktycznie, pomimo tego, że zauważyłem ten problem, to puściłem film bez naprawienia tego aspektu. Następnym razem będzie lepiej!

  • @user-gk7iq6if9q
    @user-gk7iq6if9q 16 днів тому +2

    GPT-4o WYMIATA 👍👍👍

  • @topijtot
    @topijtot 19 днів тому

    To jest eleven labs? O kurde..

  • @mariuszx2876
    @mariuszx2876 18 днів тому

    Ten co tłumaczył to też był ej aj???

    • @PraktycznieoAI
      @PraktycznieoAI  18 днів тому

      Zgadza się - 11.ai

    • @mariuszx2876
      @mariuszx2876 17 днів тому

      @@PraktycznieoAI trza go zaktualizować do najnowszej wersji bo za szybko i niewyraźnie nawijał

    • @PraktycznieoAI
      @PraktycznieoAI  16 днів тому +1

      To mój pośpiech - eleven labs daje możliwość korygowania tego typu rzeczy, ale niestety już mi sił nie starczyło ;)

    • @mariuszx2876
      @mariuszx2876 16 днів тому +1

      @@PraktycznieoAI spoko, to był żart:)

  • @PAtools1
    @PAtools1 17 днів тому

    Momentami męski lektor jest na wyższym tempie przez co jest niezrozumiały.

    • @PraktycznieoAI
      @PraktycznieoAI  17 днів тому

      To prawda. 11 labs daje dostęp do edytora, który pozwala to poprawić, jednak niestety wygrała chęć jak najszybszego wypuszczenia filmu vs. dopracowanie tego aspektu

  • @RMat-lv1fh
    @RMat-lv1fh 17 днів тому +2

    O. Qurwa !!!

  • @obikonik
    @obikonik 18 днів тому

    dramat ten lektor, co to ma być

    • @xevil21
      @xevil21 17 днів тому

      Przyszłość.