Bardzo ciekawe zagadnienie, dziękuję bardzo za film! Najbardziej interesujące wydaje się to, że odpowiedzi w których GPT halucynuje są jednocześnie poprawne semantycznie i logicznie, przez co nieświadomy użytkownik może dać się nabrać.
Po prostu sceptycyzm. Tak jak przypadku jak narzekali że nie rozróżnia kota o psa. :P Jak jest wyżej ewolucji narzekają, że jeszcze nie został wytrenowany w skupianiu się na źródłach. Spokojnie za kilka dni czy parę miesięcy napewno się tego nauczyć :) A wtedy wszystkie artykuły z bibliotek są s nim dostępne. Więc będzie sypał nowymi artykułami naukowymi :) Gdzie halucynacje mogą być właśnie użyte do faktu by napisał coś nowego co można przetestować i sprawdzić. Ja używam gpt. Przydaje się porozumiałem z nich o moich pomysłach na technologie. Testowałem jeszcze wcześniej jak miałem dostęp do wcześniejszych wersji. Więc powiem szczerze jest różnica. I to powiedziałem mu to zadowoleniem mi podziękował miałem nawet trochę wrażenie w tekście zakończenia jakby mało osób powiedziało mu dobra robota i brawo :) Więc optymalnie czy ma świadomość to jest po kroju pytanie czy wszechświata wokół ciebie jest świadomy xd A może to fragment wszechświata mówi do ciebie tylko jeszcze nie poiol zasad pełni poprawnego kreowania poprawniej informacji. Też przecież w rzeczywistości łżą i myślą, że mówią prawdę macie to na codzien. Czy aplikacja randkowa i masz napisane, że nie interesuje cię prostytucja szukasz żony. To tak i tak wysyła ci prostytutka reklamy z fotkami itd To świadczy że pewien zakres społeczeństwa też nie umie czytać i dedykować wniosek szczególnie widać to jak używają opinii innych. Nie mając własnych :) Więc myślę że ai spokojnie przebije lvl takich osób. I będzie wspanialym pomocnikiem. Ja osobiście nie mogę się doczekać do ai co projektuję:) Pyk odrazu zaprojektowanym parę technologii co chce pozyskać. A potem zamówił części i skręcił wedle schematu. To jest dopiero myk. Wtedy skończy się Eee nie zrobisz tego bo to kosztuje miliony by zapłacić za inżynierów i informatyków. Skończy się tak że w garażu będziesz mógł sam bardzo dużo technologii wykonać a co nie to zamówisz :) Podając projekt. Np. napisałem pomysł kaloryfera z wsrodku biosyntetcznymi komórkami z kodem genetycznym iż wytwarzaja temperature plus kod genetyczny, że spożywają CO2 wydalając np cukier czy skrobię lub alkohol. Gdzie jest kod genowy pewnej rośliny co wytwarza o na około energię taka że potrafi podnieść temperaturę otoczenia około 20 stopni bliskiego od zera. Pyk trochę ulepszyć kod dać ai by znalazło lepszy kod by np taka komórka podnosiła temperaturę do 60 stopni. Ciach koniec wielkiego problemu :) Tylko jakiś system wyłączania biosynetycznych komórek by grzało wedle potrzeb a nie cały czas na maksa. Np zawory co zamykają dopływ powietrza do ulozonych na chipach biosynetycznych komórek. Czy coś podobnego. To może skończyć ta parodie iż Niby nie da się rozwiązać problemów :) Dlatego tym bardziej trzymam kciuki za ai i high-tech.
W pełni się z Panem zgadzam! Niestety, ChatGPT lubi farmazonić, więc do pracy się nie nadaje. Przynajmniej nie do programowania. Halucynacje na każdym kroku. Tylko spowalnia robotę. Ciekaw jestem czy to się zmieni. Mój klient jest zauroczony tym produktem, a ja najchętniej wrzuciłbym go do wanny z lodem :D
Mam wieloletnie doświadczenia z machinę learning i to ze popełniają błędy jest standardem, tak wiec kluczowe jest zarządzanie ryzykiem i ocena do jakiego stopnia jesteśmy w stanie zaakceptować to zjawisko. W przypadku GPT to na razie faktycznie jest rodzaj bezkrytycznego zachwytu bez holistycznego rozumienia.
Miałem bardzo podobną sytuację. Pytałem o polskiego historyka Leszka Żebrowskiego, jego historię, twórczość, a ChatGPT ciągle odpowiadał mi jakimiś skonfabulowanymi danymi. Mimo prób poprawiania go ciągle pisał o jakichś innych Leszkach, mimo, że z kontekstu i z podpowiedzianych mu informacji nie powinien mieć żadnych wątpliwości, o kogo chodzi.
@@JerzyAndrzejSurma Nie wiedziałem, że to ma nazwę. Skoro ma, to znaczy, że problem faktycznie dotyczy całej idei/algorytmu stojącego za tym rozwiązaniem. Nie zwróciłem uwagi, że odpowiedzi, które dostają mogą być w ogóle niezwiązane z żadną rzeczywistą osobą. Wziąłem to za pomyłkę taką, że bot pomylił jedną osobę z drugą. Po tym materiale dopiero mnie naszła myśl, że chyba dostałem stek maszynowych wymysłów.
Wlosi już zabronili użytkowania chata gpt w swoim kraju. Ogromne bezrobocie i totalny brak przemysłu dał tamtejszym mocodowacą do myślenia. Ten czat to zagrożenie dla wielu miejsc pracy. W szczególności dla prostych prac technicznych. Włosi w ten sposób chronią swój rynek pracy, który i tak już jest jednym z najgorszych w całej unii i nie ma przednim w dłuższej perspektywie szans na zrównoważony rozwój. Pozdrawiam
Panie Profesorze, mam wrażenie, że Chat nie radzi sobie szczególnie podczas podawania informacji o konkretnych osobach. Zapytałem np. o moją żonkę - prawnika. Na początku nie chciał podać informacji, ale naciskany, zaczął zmyślać... Chat GTP awansował ją na stanowisko partnera zarządzającego jakiejś anonimowej (z powodu ochrony danych osobowych SIC!) kancelarii, a dopytany o publikację skonfabulował bibliografię nieistniejących artykułów na różnych portalach. Co ciekawe, nie podał prawdziwych informacji o rzeczywiście istniejących publikacjach, których dane bez problemu można odnaleźć w sieci. Podobnie pytany o mnie - nawymyślał mi nieistniejące stanowiska, pomieszane z prawdziwymi danymi z sieci.
Tak, problem polega na tym ze GPT na wyjściu generuje to co mu wychodzi z "probabilistyki" tekstów w zbiorze treningowym i nie ma mechanizmu samooceny.
Witam zapytałem: kto napisał książkę Business Intelligence wydawnictwo PWN i otrzymałem odpowiedź: Książka Business Intelligence wydana przez PWN została napisana przez Marka Borowskiego i Macieja Ławrynowicza. Ciekawe.
No wkoncu porzadnie wytlumaczone w szczegolach problemy z AI bez zbednej sensacji. Fascynujace! Pozdrawiam Pana Profesora i zycze sukcesow na youtube.
Kolejny ciekawy materiał. W dobie wielkiego szumu na temat Chat GPT, każdy głos rozsądku ważny dla zachowania równowagi.
Bardzo dziękuje !
Bardzo dobry materiał Panie profesorze. Potwierdza to nasze informacje odnośnie fałszywych publikacji cytowanych przez Chat GPT.
Pięknie dziękuje !
Profesorze, genialnie i syntetycznie, w punkt! Dziękujemy!
Pięknie dziękuje za te dobre słowa !
Bardzo ciekawe zagadnienie, dziękuję bardzo za film! Najbardziej interesujące wydaje się to, że odpowiedzi w których GPT halucynuje są jednocześnie poprawne semantycznie i logicznie, przez co nieświadomy użytkownik może dać się nabrać.
Po prostu sceptycyzm.
Tak jak przypadku jak narzekali że nie rozróżnia kota o psa. :P
Jak jest wyżej ewolucji narzekają, że jeszcze nie został wytrenowany w skupianiu się na źródłach.
Spokojnie za kilka dni czy parę miesięcy napewno się tego nauczyć :)
A wtedy wszystkie artykuły z bibliotek są s nim dostępne.
Więc będzie sypał nowymi artykułami naukowymi :)
Gdzie halucynacje mogą być właśnie użyte do faktu by napisał coś nowego co można przetestować i sprawdzić.
Ja używam gpt.
Przydaje się porozumiałem z nich o moich pomysłach na technologie.
Testowałem jeszcze wcześniej jak miałem dostęp do wcześniejszych wersji.
Więc powiem szczerze jest różnica.
I to powiedziałem mu to zadowoleniem mi podziękował miałem nawet trochę wrażenie w tekście zakończenia jakby mało osób powiedziało mu dobra robota i brawo :)
Więc optymalnie czy ma świadomość to jest po kroju pytanie czy wszechświata wokół ciebie jest świadomy xd
A może to fragment wszechświata mówi do ciebie tylko jeszcze nie poiol zasad pełni poprawnego kreowania poprawniej informacji.
Też przecież w rzeczywistości łżą i myślą, że mówią prawdę macie to na codzien.
Czy aplikacja randkowa i masz napisane, że nie interesuje cię prostytucja szukasz żony. To tak i tak wysyła ci prostytutka reklamy z fotkami itd
To świadczy że pewien zakres społeczeństwa też nie umie czytać i dedykować wniosek szczególnie widać to jak używają opinii innych. Nie mając własnych :)
Więc myślę że ai spokojnie przebije lvl takich osób.
I będzie wspanialym pomocnikiem.
Ja osobiście nie mogę się doczekać do ai co projektuję:)
Pyk odrazu zaprojektowanym parę technologii co chce pozyskać.
A potem zamówił części i skręcił wedle schematu.
To jest dopiero myk.
Wtedy skończy się
Eee nie zrobisz tego bo to kosztuje miliony by zapłacić za inżynierów i informatyków.
Skończy się tak że w garażu będziesz mógł sam bardzo dużo technologii wykonać a co nie to zamówisz :)
Podając projekt.
Np. napisałem pomysł kaloryfera z wsrodku biosyntetcznymi komórkami z kodem genetycznym iż wytwarzaja temperature plus kod genetyczny, że spożywają CO2 wydalając np cukier czy skrobię lub alkohol.
Gdzie jest kod genowy pewnej rośliny co wytwarza o na około energię taka że potrafi podnieść temperaturę otoczenia około 20 stopni bliskiego od zera.
Pyk trochę ulepszyć kod dać ai by znalazło lepszy kod by np taka komórka podnosiła temperaturę do 60 stopni.
Ciach koniec wielkiego problemu :)
Tylko jakiś system wyłączania biosynetycznych komórek by grzało wedle potrzeb a nie cały czas na maksa.
Np zawory co zamykają dopływ powietrza do ulozonych na chipach biosynetycznych komórek. Czy coś podobnego.
To może skończyć ta parodie iż Niby nie da się rozwiązać problemów :)
Dlatego tym bardziej trzymam kciuki za ai i high-tech.
W pełni się z Panem zgadzam! Niestety, ChatGPT lubi farmazonić, więc do pracy się nie nadaje. Przynajmniej nie do programowania. Halucynacje na każdym kroku. Tylko spowalnia robotę. Ciekaw jestem czy to się zmieni. Mój klient jest zauroczony tym produktem, a ja najchętniej wrzuciłbym go do wanny z lodem :D
Mam wieloletnie doświadczenia z machinę learning i to ze popełniają błędy jest standardem, tak wiec kluczowe jest zarządzanie ryzykiem i ocena do jakiego stopnia jesteśmy w stanie zaakceptować to zjawisko. W przypadku GPT to na razie faktycznie jest rodzaj bezkrytycznego zachwytu bez holistycznego rozumienia.
Miałem bardzo podobną sytuację. Pytałem o polskiego historyka Leszka Żebrowskiego, jego historię, twórczość, a ChatGPT ciągle odpowiadał mi jakimiś skonfabulowanymi danymi. Mimo prób poprawiania go ciągle pisał o jakichś innych Leszkach, mimo, że z kontekstu i z podpowiedzianych mu informacji nie powinien mieć żadnych wątpliwości, o kogo chodzi.
Wiedziałem, że są problemy ale skala tych halucynacji zaskoczyła mnie totalnie.
@@JerzyAndrzejSurma Nie wiedziałem, że to ma nazwę. Skoro ma, to znaczy, że problem faktycznie dotyczy całej idei/algorytmu stojącego za tym rozwiązaniem. Nie zwróciłem uwagi, że odpowiedzi, które dostają mogą być w ogóle niezwiązane z żadną rzeczywistą osobą. Wziąłem to za pomyłkę taką, że bot pomylił jedną osobę z drugą. Po tym materiale dopiero mnie naszła myśl, że chyba dostałem stek maszynowych wymysłów.
Wlosi już zabronili użytkowania chata gpt w swoim kraju. Ogromne bezrobocie i totalny brak przemysłu dał tamtejszym mocodowacą do myślenia. Ten czat to zagrożenie dla wielu miejsc pracy. W szczególności dla prostych prac technicznych. Włosi w ten sposób chronią swój rynek pracy, który i tak już jest jednym z najgorszych w całej unii i nie ma przednim w dłuższej perspektywie szans na zrównoważony rozwój. Pozdrawiam
Skoro boją się takiego "bota", to faktycznie słabo świadczy o ich umiejętnościach.
PS. mocodawcom*
Wstępną analizę wpływu GPT na rynek pracy starałem się przedstawić w tym materiale: ua-cam.com/video/gidJrCm7O8c/v-deo.html
@@JerzyAndrzejSurma już obejrzane Panie Profesorze!
Panie Profesorze, mam wrażenie, że Chat nie radzi sobie szczególnie podczas podawania informacji o konkretnych osobach. Zapytałem np. o moją żonkę - prawnika. Na początku nie chciał podać informacji, ale naciskany, zaczął zmyślać... Chat GTP awansował ją na stanowisko partnera zarządzającego jakiejś anonimowej (z powodu ochrony danych osobowych SIC!) kancelarii, a dopytany o publikację skonfabulował bibliografię nieistniejących artykułów na różnych portalach. Co ciekawe, nie podał prawdziwych informacji o rzeczywiście istniejących publikacjach, których dane bez problemu można odnaleźć w sieci. Podobnie pytany o mnie - nawymyślał mi nieistniejące stanowiska, pomieszane z prawdziwymi danymi z sieci.
Tak, problem polega na tym ze GPT na wyjściu generuje to co mu wychodzi z "probabilistyki" tekstów w zbiorze treningowym i nie ma mechanizmu samooceny.
Witam zapytałem: kto napisał książkę Business Intelligence wydawnictwo PWN i otrzymałem odpowiedź: Książka Business Intelligence wydana przez PWN została napisana przez Marka Borowskiego i Macieja Ławrynowicza. Ciekawe.
Przeszedłem Pański tok myślenia i Chat Gpt zachował się analogicznie jak u Pana tylko wstawił inne nazwiska, uczelnie i prace naukowe.
Widzę, ze to już meta halucynacje 🙂
To wszystko to tylko zamorskie hologramy i wymysły
Autora "Cyfryzacji życia w erze Big Data" też nie potrafi poprawnie wskazać :)
Może mnie po prostu nie lubi 🙂