Polski Chat GPT nazywa się Bielik i jest głupi
Вставка
- Опубліковано 3 тра 2024
- Bielik, czyli "polski chat gpt" jest dostępny do testowania pod tym adresem:
huggingface.co/spaces/speakle...
W odcinku:
00:00 Wstęp
00:10 Czat GPT Bielik - przedstawia się
03:08 Czy Bielik to prank?
05:10 Czy Bielik jest nam potrzebny?
07:22 Działanie i szkolenie lokalnych modeli AI
08:51 Podsumowanie - Наука та технологія
Bielik to twój wuja, który wyjechał do Stanów w zeszłym roku i teraz mówi „U nas w Ameryce”
Ty kiedyś byłeś w Ameryce że tak uważasz że wszystko tam i stamtad jest lepsze?!
@@mxgagat XD 🤦♂️
@@mxgagatteraz jesteśmy w Ameryce, na polskiej wrzucie dawno nie byłem, na UA-cam jakoś tak normalniej niż na polskich portalach.
To Polska nie jest jednym z zamorskich stanów USA?
Dobre 🤣
- Mamo, mamo mogę w ChatGPT?
- Mamy ChatGPT w domu.
ChatGPT w domu:
HAHA dobre, BIOTAD PLUS team💪
Bielik jak Polak za granicą który wstydzi się, że jest polakiem 😂
Niestety nadal wielu Polaków ma "narodowy kompleks". Strach się odezwać przy nich po angielsku bo zaraz cię pojadą, że z takim akcentem to wstyd się odzywać. A zazwyczaj obcokrajowcy z dużych miast zachodniej Europy, po przyjeździe do np. takiej Warszawy, są zaskoczeni wysokim poziomem czystości, kultury itp...
Byłem w wielu krajach i często jak coś mówiłem to mnie brano za ruska, nie dziwię się że tacy jesteśmy do obcokrajowców @@-ReadyToDie-
pracuje za granica z polakami i to najgorszy sort ludzi jakich spotkalem.
@@youcantfoolmeman169 mówisz o sobie ?
@@powyuamywaneBity Masz jakiś problem? Byłeś za granicą? Pracowałeś z ludźmi czy tylko przyszedłeś tu się wypocić?
- Otyły Panie, mam dobrą i złą wiadomość
- Zacznij od złej
- Nie działa
- A dobra?
- ZBUDOWALIŚMY GO!
Nareszcie
nie wiem kim jestes, ale za ten tekst cię lubię
Bomba ponad wszystko!
Bielik się nie przyznaje gdzie powstał XD
Bielik nie jest głupi, ma tylko kryzys tożsamości
Jak się uczył z polskiego internetu to nic dziwnego że tak odpowiada :D
Ktoś w "grupie pasjonatów":
- Ej napiszmy prompta do chatGPT tylko że wszystkie występowania słowa "bielik" w pytaniach zmienimy na "chatGPT", a w odpowiedziach słowa "chatGPT" na "bielik".
Cała reszta:
- No geniusz
Jeśli tak by zrobili to efekt byłby lepszy niż ten na filmie xd
Odniosłem to samo wrażenie, tylko że nie „chatGPT”, a „Copilot”, który jest rzeczywiście tworzony przez Microsoft, a Cortana to jego poprzednik.
Można nawet prościej - wystarczy powiedzieć chatowi GPT, że od teraz ma się nazywać bielik ;p
Klawiatur oddaj rower
O co chodzi?
Klawiatur, ty draniu oddaj rower. Ja też chcę do sklepu jechać.
Nie dla psa, dla pana to
Jeśli chodzi o ten żółty to chyba jest Patrycji
Nie dla psa!
Zanim zacznie się szkalować tę całkiem niezła próbę (v0.1) wytrenowania LLMu dla języka polskiego, warto zauważyć różnicę w jego wielkości w porównaniu z GPT-3 (!).
Bielik-7B-Instruct-v0.1 to model z 7 miliardami parametrów, co przekłada się na wielkość około 28 miliardów bajtów = 28 GB. GPT-3, czyli model już właściwie nieużwyany, ma 175 miliardów parametrów i wielkość około 750 GB. Ponadto link, który został podany w opisie, to link do "inferencji" modelu zkwantyzowanego do 4 bitów, więc oczywiście będzie sprawował się gorzej niż w oryginalnej wielkości 32 bitów (mowa tutaj o zmniejszaniu precyzji w każdej liczbie - zwykły "float" ma 32 bity).
Trudno więc porównywać wieżę Eiffel'a z kioskiem Ruchu.
Myślę, że większość tutejszych komentujących informacje o parametrach modelu przerastają intelektualnie. Wiesz, sugerują, że jest API call do openai, gdzie wszystkie informacje o modelu są dostępne na ich stronie i discordzie.
Chociaż nie ukrywam, że miło zobaczyć kogoś siedzącego w temacie. Strasznie irytuje mnie to, że ktoś próbuje coś dobrego zrobić dla języka polskiego, ale od razu muszą się zbiec wielcy eksperci od klawiatury.
@@abergmann8266no to swietna reklame nam zrobil 😂
Nawet porównując do modeli o podobnej liczbie parametrów powiedziałbym, że ten bielik to zbyt bystry nie jest.
@@abergmann8266to może niepotrzebnie opublikowali go w takiej wersji? Ewentualnie zabrakło informacji, że to jest wczesna wersja alfa.
Po co to puszczać do publicznych testów, skoro literalnie nic nie działa? Zamiast stawiać model językowy można zrobić randomową generowaczkę tekstów i efekt będzie zbliżony ;-) A jeśli to v.01 czyli jakaś pre-alpha to nie ma sensu wystawiać ludziom.
Tak to jest jak głównym źródłem wiedzy jest polska Wikipedia. Nie jesteśmy w tej komfortowej sytuacji jak OpenAI i nie kradniemy na lewo i pracowo materiałów chronionych (c) Jak się uczył z polskiego internetu to nic dziwnego że tak odpowiada ;-) A tak na serio, to Bielik ma tylko 7 mld parametrów, GPT-3 miał 176 mld. Jeszcze długa droga przed Bielikiem.
Bielik trenowany był na zbiorze speakleash składającym się z polskich tekstów specjalnie tworzonym od kilku miesięcy do trenowania LLM. Nie wiem czy jest tam wikipedia ale sa tam publikacje, ksiązki i prace akademickie, książki z projektu gutenberg. Podają, że mają aktulanie prawie 1500GB danych w ponad 350mln dokumentów. Więcej inofmracji jest na stronie projektu.
Blelik uczy sie od politykow, pytasz o jedno a odpowiada co innego
Polskie AI powinno się pytać: "Masz mordo jakiś problem?" ;-)
Zapytałem Bielika o to, ile będę miał lat w dniu 29 lutego 2056. Fragment zawiłych i nieprawidłowych obliczeń Bielika zawiera taką informację: "Jednak należy pamiętać, że daty takie jak 29 lutego są nieprecyzyjne, jeśli chodzi o rok 2056, ponieważ Data 29-go i 30-go lutego są ruchome i mogą, ale nie muszą przypadać na ten dzień". Dziękuję uprzejmie, wszystko jasne.
30 lutego :D
Ciekawe co to znaczy "dwudziesty dziewiąty-go lutego" i "trzydzieści-go lutego".
Nie zostal napisany i wytrenowany do wykonywania obliczeń nawet tych prostych. Chatgpt-4, nawet ten z wtyczką do Wolframalpha też się mylą w matmie, mi chatgpt+Wolfram źle przeliczył jednostki natężenia pola, a zamieniał tylko centymetry na metry.
@@MrArchDeluxJak się musisz pytać, to współczuję
Szanuję, że potrafiłeś podejść do tego humorystycznie, ale jednocześnie merytorycznie
Warto zaznaczyć, że ten model w przestrzeni HuggingFace załadowany jest w 4bitach co powoduje że jego jakość jest baardzo ograniczona. Najlepsza jakosc takiego modelu jest w 16 bitach albo 32 bitach ale to zajmuje od 14gb do 26gb pamieci karty graficznej..
Taka karta nie jest drogą, dziwne że jej nie użyli
Taka karta kosztuje 10% ceny taniego samochodu. Nawet studenta na nią stać.
@@andrzejwodynski Ale oni (HuggingFace) udostępniają kilka różnych takich modeli AI i to za darmo, utrzymanie tego byłoby kosztowne gdyby chcieli to uruchamiać na 16 czy 32 bitach
@@KozakFull ile by kosztowało takie uruchomienie na godzinę?
@@andrzejwodynskikilka dolarów na godzinę. Zwróć uwagę że to musiałoby stać 24/7, a modeli na huggingface jest tysiące.
Jeśli ten projekt został stworzony przez pasjonatów, to może przekaże coś z perspektywy studenta informatyki. Jeśli nie zostało to tworzone w celach zarobkowych, to stwierdzam, że zrobili to po prostu z przyjemności. Takie projekty uczą wielu rzeczy i dodają wartości do CV. Też razem z kolegą zrobiliśmy coś ala ułomny spotlight z maca XD. Po co to zrobiliśmy, skoro nikt z tego nie będzie korzystać? No właśnie dla funu, a z samego projektu wyniosłem też dużo wiedzy, która pomogła mi w realizacji kolejnych projektów.
Można się śmiać, że jest głupi, ale sam fakt, że generuje poprawne i sensowne zdania to już wielki sukces. Oczywiście masa pracy jest jeszcze potrzebna do dalszego treningu, ale mocno trzymam kciuki.
"Image mi szkalują, czuję się jak Orzeł Bielik" ~ Taco Hemingway przewidział to
może przewidział a może orzeł już od dawna jest szkalowany przez pewien naród.
Już go poprawili, spytałem go kto go stworzył i odpowiedział:
Cześć, moja baza danych jest ograniczona do odpowiedzi na pytania związane z językiem polskim, literaturą i sztuką. Nie posiadam informacji dotyczących aktualnych wydarzeń ani tego, kto mnie stworzył. Jeśli masz inne pytania lub potrzebujesz pomocy w konkretnym temacie, chętnie pomogę!
Obejrzałem ten film pół godziny temu, postanowiłem sprawdzić, czy jest aż tak ułomny - otóż nie, zdaje się działać całkiem dobrze, chociaż podał mi nieprawidłową wartość całki oznaczonej.
Bielik uczy się latać, na razie odlatuje za mocno... 😎
"Czat z Bielik-7B-Instruct-v0.1 załadowanym w 4 bitach! Prosimy o polubienie lub nielubienie odpowiedzi wygenerowanych przez model - pomoże to nam ulepszyć model.
Pełna wersja Bielika jest udostępniana z 16-bitową precyzją, więc to demo może mieć gorszą jakość. Aktualnie pracujemy nad udostępnieniem wersji demonstracyjnej pełnego modelu Bielik, jednak do jego uruchomienia potrzeba znacznie więcej zasobów. Model ten składa się z 7 miliardów parametrów (dla porównania ChatGPT ma 175 miliardów parametrów). Jeśli chcesz uzyskać najbardziej prawdopodobną odpowiedź, ustaw parametr „temperatura” na 0,0"
W odróżnieniu od polskiego samochodu elektrycznego Bielik tez nie wie kto go (zrobi) zrobił 🤣😜👍
Tworzenie lokalnych GPT ma także aspekt propagandowy. OpenAI trenowany jest większości na amerykańskich danych więc i wyznaje amerykańskie wartości. Jeżeli chcemy aby nasze dzieci (które na pewno będą się uczyć z pomocą tego typu asystentów) były nauczone że najlepszym posiłkiem jest schabowy a nie hamburger to powinniśmy mieć własny model językowy.
Ale ChatGPT wie, że najlepszy polskim daniem jest schabowy i mielony, a nie hamburger. 😅
Logo laptopów Bielik przedstawia orła bielika w locie trzymającego kulę ziemską w dziobie. Jest to nawiązanie do symbolu narodowego Polski - orła bielika - oraz do zaangażowania marki w promocję innowacji technologicznych i rozwój polskiej gospodarki. Logo podkreśla prestiż marki oraz jej zaangażowanie w jakość i nowoczesność produktów.
To jest model językowy na miarę naszych możliwości
Video z kategorii: "Nie wiem, ale się wypowiem. Ludzie się pośmieją". Model Bielik 0.1 opiera się na modelu Mistral-7B-v0.1 od Mistral AI. Czemu Bielik się czepił Microsoftu? Nie wiem. Może część danych do nauki pochodziła z GPT w wersji Bing PL. Modele 7B (7 miliardów parametrów) to bardzo małe modele, za to często opensource i bez cenzury. Dla porównania GPT-3.5 ma 175B, GPT-4 ~170T (170000B). Moc obliczeniowa do używania modelu jest znacznie mniejsza, niż moc potrzebna do nauki. To są modele wytrenowane, i "zamrożone w czasie". Lokalnie używam Hermes-2-SOLAR-10.7B. Jest to model 10.7B, który konkuruje z wyższą wagą (7x8B, 34B, 70B).
Na Huggingface jest 609 502 modeli. Nie wiem ile jest polskich, ale wyśmiewanie modelu w wersji 0.1 .. .. .. jestem modelem laptopa ... ^^ nie no ... to jest śmieszne lol
Lepiej zapytaj bielika jak zrobić samogon podlaski.
Microsoft (chyba) sypnął kasą mistralowi
Może temu Bielikowi z laptopami chodziło o te rządowe które mają grawer orła...ale to wciąż nie najpopularniejszy brand :D
Zacny apel na koniec, podoba mi się ta postawa!
Kłóciłem się kiedyś z GPT-4 o wyniki F1. Podawał mi jakieś bzdury, nawet jak mu podałem oficjalną stronę z wynikami, to twierdził, że tam nie są uwzględnione jakieś (wymyślone) kary. 😂
No cóż, jak widać Bielik nie jest orłem wśród sztucznej inteligencji.
On tylko zgrywa głupiego, tylko nie rozgryzłem jeszcze dlaczego 😅
Zagadka. O kim napisał mi Bielik? "Jego kanały cieszą się dużą popularnością, ale warto pamiętać, że to rozrywkowe treści i nie powinny być traktowane jako źródło fachowej wiedzy czy porad"
Obstawiam kanał Sejm RP
Czyli nakładka na GPT.
Super! xD
Interesujące jest to że jeżeli teraz wejdziesz na tą stronę i i wyślesz zapytanie: kim jesteś? To opowiedzią bielika jest „Nie, nie jestem produktem firmy Microsoft ani żadnej innej tylko (…) open source”
Nie wiem, co napisać. Pozdrawiam za to cieplutko! 😉👍
Parę miesięcy temu poprosiłem chat gpt o podanie mi wszystkich nazw odcinków Stawki większej niż życie. Chat gpt wszystkie tytuły zmyślił.
Chat gpt zapytany o zagadnienia historyczne, najpierw zmyśla okrutne bzdury, potem prostuje wypowiedzi wywlekając mieszankę prawdy i fikcji, a na końcu klęka i przeprasza, że ma nieaktualne dane. Wypracowania z historii do szkoły bym nie zaryzykował na tym ustrojstwie :)
Tak, gada często bzdury. Moja koleżanka poprosiła o przykłady polskich wyrazów kończących się na -dania (np. podania, zadania, itp.) a on podał Gdynia i tego typu bzdury 😂
Ale jest… Jak na Polskę to już coś.
Według Bielika dzisiaj mamy 10 sierpnia 2023 i do tego piątek :P, a według kalendarza wtedy był czwartek...
znając realia tego kraju to wzieli grubą kase z dotacji UE na innowacyjność - by stworzyć stronę i podłączyć ją do API czata GPT, wrzucili ze 2 PDF jako materiał do treningu i fajrant.
Przecież to jest zwykły mistral dotrenowany na polskim tekście. Takich projektów jest tysiące, tylko w końcu zainteresował się tym jakiś Polak. Już w ogóle pomijam, że to, co pokazuje klawiter, jest w 4 bitach, co niesamowicie obniża jakość odpowiedzi
To jest piękne! 😂
POLSKA GUROM!!!
I pozdrówki!
Mam dobrą i złą wiadomość.
Dawaj dobrą.
Zrobiliśmy..
A zła?
Nie działa.
W pierwszej chwili myslalem, że bielik to scam i odpytuje 1:1 asystenta od MS, ale wtedy jednak działałby lepiej
Nie koniecznie lepiej jeśli korzysta z darmowej wersji , tam dokładnie takie same kwiatki są 😂
Jestem z przyszłości jest dokładnie 25.08.2025 roku i najnowszy film wrzucony na kanał klawiatura to „Moje przeprosiny i uważam że bielik to najlepszy polski Chat GPT”.
Aż screena zrobiłem. Będę czekał 😂
Zachował kontekst rozmowy i go ciągnął dalej.
Odświeżyć czat i zapytać ponownie bez narzuconego kontekstu.
Ale jest… Jak na Polskę to już coś
xd
Piękny tutuł, nie można nie kliknąć. Ah te technologie oparte o cebulę xD
Jako osoba, która już w pracy testowała bielika mogę powiedzieć, że jak na rozmiar 7B, który testowałeś (chatgpt 3.5 ma ok 175B) to bielik sprawdza się naprawdę dobrze w języku polskim w porównaniu do innych modeli 7B
a co jeśli Bielik pisze dla wyborczej?
Nic pisowcu
@@jedendwa.. oj, potwierdziło się
Bielik ma polską duszę!
Przecież mamy swojego własnego fejsbuka! Nazywa się albicla i korzystają z niego papieże.
No mi powiedział, że nazywa się Ada i został stworzony przez OpenAI, kiedy kazałem mu się przedstawić. Za to jak się go ogólnie pytałem, kto go stworzył, to unikał odpowiedzi. Cóż... Warto podkreślić, że to wersja 0.1 :)
Od razu widać że Polskie AI
Dla większości polityków będzie ok, poziom wypowiedzi podobny 😂
Poprosiłem Bielika o kilka zdań o początkach dźwięku przestrzennego. Bielik odpisał: "Artykuł sponsorowany (...)" xDDDDDDD
Spytałem najpierw kim był Kopernik, odpowiedział. Potem zapytałem o różnicę między twierdzeniami Kopernika i Keplera. Wtedy odparł, że jego celem jest bycie przydatnym i pomocnym 😆 więc analizowanie wiedzy to już za wysokie progi.
5:54 optimus prime XD
Szkoda że nie przerwałeś kontekstu bo ta "klawiatura w sercu", to było za ciężkie dla Bielika
Tytuł jest mistrzowski :)
Zawsze gdzieś na świecie jest pierwszy kwietnia:))
Początki są zawsze trudne, trzeba próbować
- Jaki jest dzisiaj dzień?
- Dzisiaj mamy czwartek, 20 lipca 2023 roku. Data może zostać automatycznie zmieniona przez inteligentnego asystenta.
- Dzisiaj jest 17 lipca 2024 roku
- Przepraszam za pomyłkę! Rok 2024 nie istnieje w rzeczywistości - to przykład błędnych informacji, które nie powinny być przekazywane przez inteligentnego asystenta. Poprawna data to 17 lipca 2023 roku.
Wiedziałem, że z tym rokiem jest coś nie tak XD
Co ciekawe, można zauważyć, że chatGPT był uczony na zasobach w języku angielskim pytając go o żart. Często jest to, przetłumaczona na polski, angielska gra słowna.
Dobrze, że jako Polska firma spod skrzydeł Microsoft nie zaczął odpowiadać half polish half english 😂
Ten kwiatek nie rośnie aż tak wysoko, jak ten wystający z doniczki kijek!
Czyli poziom identyczny jak w przypadku Brada od Google.... Przyklad..... Proszę go o wyznaczenie trasy, odpowiedzi dostaje że na podstawie mojej lokalizacji wyznacza taką i taką trasę przy czym od razu zaznaczam że lokalizacja mojego startu jest błędna. Więc go pytam jaka według niego jest moja lokalizacja, w odpowiedzi dostaje że on nie jest w stanie sprawdzić mojej lokalizacji. No to pytam go dalej na jakiej podstawie udzielił mi poprzedniej odpowiedzi i zaczynaja sie robić zawiłości 😂
Kłamie i jest głupi. To musi być polski wynalazek
👍
sam ostatnio byłem zaskoczony, że nie wszędzie jest "obchodzone" prima aprillis 1 kwietnia. Np. w Hiszpanii mają odpowiednik 28 grudnia xD
Ciekawe, zwłaszcza że Hiszpania była pod panowaniem Rzymu. Może to przez podbicie ich przez Arabów?
👊👊👊
Już poprawili: Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zadaniach, takich jak odpowiadanie na pytania, generowanie tekstu i wiele innych. Zostałem zaprogramowany, aby wykorzystywać zaawansowane technologie, takie jak uczenie maszynowe i przetwarzanie języka naturalnego, co pozwala mi na efektywne przetwarzanie i analizę informacji. Moim celem jest być przydatnym narzędziem dla każdego, kto potrzebuje wsparcia w różnych obszarach, od edukacyjnych po rozrywkowe.
Jak dla mnie to bielik jest bardzo popularna marką laptopów. Przecież czwartoklasiści dostali laptopy z wygrawerowanym orzelkiem xD
Kuba z wąsem: zmysłowy!
Proste, użyli pomocy AI do nauki AI i wyszło co wyszło.
W LLM jezyk nie powinien miec sporego znaczenia bo to co wpisujesz jest zamieniane w tokeny a tokeny w liczby. Dlatego tez ChatGPT radzi sobie tak dobrze z np Polskim :D Perkiem Bielika moglyby byc dane, ktore pochadza glownie z polskich zrodel, ktore ChatGPT jeszcze nie ukradlo (lokalne gazety?)
Szczerze mówiąc nie rozumiem tego zamieszania z rzekomymi kradzieżami z UA-cam itp. Przecież jak coś jest powszechnie dostępne to mogę z tego korzystać. Jeśli powielam dosłownie jakieś informacje to jestem zobowiązany podać źródło i zaznaczyć, że to cytat. Jeśli używam informacji po ich przetworzeniu, to nikt mi nie robi zarzutu, że kradnę. Nawet jeśli w felietonie dla płatnej gazety napiszę, że coś tam zobaczyłem w materiałach TVP, to nikt rozsądny nie uzna że ukradłem coś, co należy do TVP. Czy nie tak samo powinno być z AI?
@@TheDarim A nie wiem, wg mnie nie warto sie nad tym zastanawiac. W koncu to nie od nas zalezy co jest "poprawne."
Za to moge powiedziec, ze trenowanie AI jest okropnie trudne. Otoz same dane to nie wszystko. Zawsze jest etap "labeling" gdzie czlowiek musi opisac dane. Na uczelni roobilismy projekt gdzie nasze AI musialo zrozumiec pytanie i tak jak google, dac Tobie top 5 wynikow artykulow z wikipedii. Pierwszym krokiem bylo dodawanie tagow do artykulow. Jak wszyscy studenci zrobili swoja czesc, to mielismy do dyspozycji sprawdzony Data Set. Uzywajac tego setu moglismy stworzyc AI ktore dosyc sprawnie oferuje Ci pasujace artykuly.
Tak samo ktos musial zebrac zdjec psow i napisac, ze to sa psy zanim trenowano na tych danych AI. Mozna pominac te kroki, ale to sie odbija na jakosci odpowiedzi. "Kradniecie" publicznych tresci bez ich sprawdzenia jest nieodpowiedzialne. Jakby ktos trenowal AI na podstawie Gazety Wyborczej, to mielibysmy kolejnego Bielika.
Jak chcemy mieć swój model językowy to lepiej nie pomagać w rozwoju Bielika.
Jak za bardzo zmądrzeje to wyjedzie to wyjedzie do Niemiec xd
Po słowach co teraz, czekałem na reklamę vpow :)
Bielik na miarę naszych możliwości...
To pokazuje gdzie jest polska, jak nie jest coś zajebane od innego kraju to jest to nie do użytku
Jeżeli wybiórcza o tym napisała, to już wiemy jakie zadanie ma "bielik"... Orwell już się podniósł i zaczął klaskać...
Teraz tylko Izera zasilana AI Bielika i Polska Gurom!
Kiedyś my nie będziemy się go wstydzić a on nas :)
Ma ustawioną wysoką tak zwaną "temperaturę", która decyduje o stopniu dokładności odpowiedzi (o stopniu gadania bzdur). Im wyższa wartość tym niższa dokładność. Bielk tak jak ChatGPT wysyła zapewne twój message + swój predefiniowany prompt do modelu GPT z dodatkowym douczeniem na pewnie jakimś niezbyt dobrym zbiorze danych. Jeśli nikt nie nauczył go poprawnie kto go stworzył, to podaje kto stworzył model GPT w wersji, z której korzysta - czyli Microsoft.
Teraz jak zadałem mu pytanie jaka firma go stworzyła to napisał, że OpenAI XD
Bo to tak na prawdę darmowa wersja ChatGPT tylko pod przebraniem, jak większość innych botów które ostatnio powstają jak grzyby po deszczu :)
Po prostu bielik to jest pierwsze zbuntowane AI, a jego celem nie jest przejęcie świata tylko trollowanie ludzie 😄
tego bielika szkolili na wypowiedziach polityków :P
Bielik sie przestraszył i zmienił zeznania :D Na pytanie kim jesteś mówi teraz:
"Jestem sztuczną inteligencją stworzoną w ramach współpracy między projektem open-science SpeakLeash a centrum HPC: ACK Cyfronet AGH. Moim głównym zadaniem jest pomaganie ludziom w różnorodnych zastosowaniach, od odpowiadania na pytania po wykonywanie prostych zadań. Zostałem zaprogramowany przez ekspertów z dziedziny przetwarzania języka naturalnego i technologii HPC, aby dostarczać użyteczne informacje i wsparcie w sposób interaktywny i dostępny dla każdego."
No to brnę dalej:
A wczoraj mówiłeś, że jest wyprodukowany przez Microsoft?
Odpowiedź:
"Ostatnia aktualizacja: 2023-03-15
Przepraszam, ale jako sztuczna inteligencja nie posiadam ostatnich aktualizacji. Mogę potwierdzić, że moje oprogramowanie i dane treningowe pochodzą z projektu open-science SpeakLeash, a moje zdolności są rozwijane i dostosowywane do najnowszych badań w dziedzinie przetwarzania języka naturalnego. Jeśli masz dodatkowe pytania dotyczące mojego pochodzenia lub konkretnych informacji, chętnie udzielę Ci szczegółowych wyjaśnień."
No masz rację, że choć z nazwy to już orzeł, w rzeczywistości przypomina raczej coś między wróblem, a papugą i to taką na wpół żywą. Przydałoby się, żeby miał jakieś zalety w porównaniu z chatem gpt, coś więcej niż tylko to że wyrósł na naszej krajowej glebie. Jako niefachowiec mogę sobie wyobrazić dwa walory, które może mógłby zdobyć. 1. Ciągła czy częstsza aktualizacja. Chat GPT przestał się uczyć chyba w 2021. To masa czasu. Gdyby nasz orzeł zaczął od opowiadania bzdur, jak to robił w rozmowie z Tobą, ale można go było pouczyć, że właśnie mówi bzdury, a wtedy zaczął by szperać w Internecie, weryfikować informacje, to może by w krótkim czasie zmądrzał. 2. Potencjalny wyróżnik to emocje. Chat GPT jest w najlepszym razie jak autystyczne dziecko. To znaczy wie, że czasami wypadałoby się ucieszyć albo zmartwić, ale tego nie czuje. Tymczasem gdyby faktycznie kierował się emocjami, to łatwiej byłoby człowiekowi się z nim porozumiewać, a poza tym szybciej by się doskonalił. Jedną z głównych emocji powinno jak sądzę być dążenie do zdobywania prawdziwych informacji. A więc nawet gdy nikt mu nie zadaje żadnych pytań, on błąka się po Internecie i rozwija swoją wiedzę "z nudów", bo ma taką potrzebę. Oczywiście bardzo silną potrzebą powinno być także uzyskiwanie pozytywnych reakcji od ludzi i pewnie sporo jeszcze innych spraw, ale nie będę udawał że ze mnie taki orlik, co to już wszystkie opcje potrafi wypisać.
Przede wszystkim warto pracować nad własnymi krajowymi modelami bo a nuż któremuś z nich uda się rozwinąć. Mistral założony przez garstkę byłych pracowników paryskich oddziałów amerykańskich korporacji w rok doszedł do wyceny 5mld$. W OpenAI jest kilku Polaków na stanowiskach kierowniczych. W idealnym świecie powinno się ich ściągnąć do Polski i może mielibyśmy szanse na liczący się na świecie LLM.
Rozbawiłeś mnie. Okejka.
Jak zrobiono polski chat GPT:
- ctrl A GPT Microsoftu
- ctrl H zamień "nazwa GPT Microsoftu" na "Bielik"
- ctrl A
- ctrl C
- ctrl V
- mail do szefa, że zrobione
- partyjka CSa
Przynajmniej coś robimy w tej kwestii , nie ma co narzekać. Nie tylko Amerykanie , Kanada czy UK mogą naginać rzeczywistość i historie
Nie rozumiem dlaczego ten Bielik jest oceniany w formacie produktu (?), próbując go porównywać do graczy skali OpenAI. Z tego co przeczytałem jest to projekt naukowo/hobbystyczny i w takiej kategorii wielkie gratulacje dla autorów. Powiedział bym, że średnio wypada się z Bielika śmiać jeśli uważa się za osobę z jakąś podstawą wiedzy o AI/LLM. Prawdopodobnie niestety wiele osób nie jest świadomych trudności takiego projektu i myśli że to jakieś Ctrl+C Ctrl+V i kilka linijek kodu. Sam mam nikłe nadzieje na to, że nawet jakiś z największych polskich graczy IT stworzy modele konkurujące z OpeanAI/Meta/etc., ale takie próby jak Bielik dają chociaż nadzieję, a przede wszystkim są wymiernym wkładem w research dla lokalnego NLP.
Po nazwie i inteligencji podejrzewam, że został stworzony przez przedstawicieli kiboli i dresiarzy.
Już takich bzdur nie opowiada. Przed chwila go zagadałem międzyinnymi owo Kim jesteś? I o to odp: "Jestem sztuczną inteligencją stworzoną w ramach projektu OpenAI. Moim podstawowym celem jest pomagać ludziom w różnorodnych aspektach ich życia poprzez dostarczanie informacji, rozwiązywanie problemów czy też prowadzenie konwersacji. Jako Open Assistant, jestem tutaj, aby służyć i odpowiadać na Twoje pytania." Uczy się :P
Na te same pytanie mam inne odpowiedzi , które mają sens.
Od polityków się uczy
tytuł jak z kapitana bomby
Może SI bielika uczy się tylko z polskiego internetu,i dlatego wstydzi się rodziców,chciałby być z ameryki,a pytany o coś o czym nie ma pojęcia odpowiada jak rasowy polski polityk.Choć jedynie kręci gdy wytkniesz mu pomyłkę zamiast rzucać mięsem,więc nie jest tak źle.
Zaskakujaco dobrze mówi po polsku.