Mikä on DeepSeek? - analyysi ilman spekulointia :-)
Вставка
- Опубліковано 5 лют 2025
- Tässä videossa tutustumme uuteen DeepSeek-kielimalliin ilman minkäänlaista poliittista kantaa, spekulointia Kiinan valtion osuudesta tai muusta turhasta hösötyksestä.
Analysoimme suoraan, kuinka tämä tekoälymalli suoriutuu erilaisista tehtävistä ja vertaamme sen suorituskykyä muihin nykyaikaisiin Large Language Models (LLM) -järjestelmiin: Microsoft Phi4, Llama3.3, ChatGPT o1 jne..
📌 Videon sisältö:
Tehtäväsuoritukset: Testaamme mallin kykyä vastata kysymyksiin, luoda sisältöä ja suorittaa ohjelmointitehtäviä.
DeepSeekin rakenne ja erottuvuudet: Selvitämme, miten DeepSeek on rakennettu ja miten se eroaa muista kielimalleista.
Koulutusprosessi: Käymme läpi mallin koulutusprosessin ja kohutun kevyen energian ja GPU-resurssien käytön
Luonnollisen kielen käsittely: Arvioimme, miten DeepSeek suoriutuu luonnollisen kielen ja suomenkielen käsittelyssä (NLP), dokumentti analyysissä ja muissa käytännön sovelluksissa.
Käyttösovellukset: Tarkastelemme tekoälyn soveltuvuutta eri käyttötarkoituksiin, kuten tekstin generointiin, datan analysointiin ja ohjelmistokehitykseen.
Mielenkiintoinen yksityiskohta: DeepSeek on saavuttanut merkittävän läpimurron laskentanopeudessa aiempiin malleihin verrattuna, ja se sijoittuu avoimen lähdekoodin mallien kärkeen.
DeepSeek edustaa uusinta kehitystä generatiivisten kielimallien saralla. Sen avoimen lähdekoodin versiot mahdollistavat kehittäjille ja tutkijoille mallin mukauttamisen omiin tarpeisiin, ja sen ilmainen web-palvelu tuo huipputason tekoälyn kaikkien saataville.
🔔 Muista tilata kanava ja painaa kelloa, jotta pysyt ajan tasalla tekoälyn uusimmista innovaatioista!
💬 Kerro kommenteissa, mitä mieltä olet DeepSeekistä ja miten se vertautuu muihin kielimalleihin!
#DeepSeek #Tekoäly #LLM #GeneratiivinenTekoäly #AvoimenLähdekoodinAI #LuonnollisenKielenKäsittely
Jos se pallo kupissa on isompi kokoinen kuin kupin sisäreunan halkaisia, voi pallo pysyä kupissa jos pallo tai kuppi on joustava.
Toisena merkitsevänä factorina on kupin ja pallon välinen kitkakerroin, eli onko kupin pinta esimerkiksi liukas, jos sitä on vaikka käytetty.
Kolmas vaikuttava factori on käden liikerata ja liikkeen äkkinäisyyden tuottamien voimien komponentit, jotka saattavat irroittaa jumiutuneenkin pallon.
yhtä vastausta ei siis annetuilla lähtötiedoilla voida todeta oikeaksi ratkaisuksi.
Näinhän se on. Tässä on pointtina se, että, jos mitään erityistä ei kerrota niin oletetaan normaalitilanne eli mitä asioilla yleensä tarkoitetaan. normaali kahvikuppi ja pallo, joka menee sinne sisään. Testi siis tavallaan testaa myös 'maalaisjärkeä' ja yleistietoa.
Moro!
Tässä tuli mieleen kun katoin videotasi, että ihan turhaanhan tässä NVIDIA otta osakkeessa pataan. Suurin syy miksi noita latauksia on tullut niin paljon on tosiaan tuo, että tuo päättelyketju tulee pihalle, kun muut on tuon avulla suunnitellut saavansa SaaS liikevaihtoa. Heti meidänkin agentit on parempia ja helpommin rakennettavia, kun saadaan tutkailtua päättelyä todella helposti. Ei tarvitse evalia tehdä niin paljon kuin ennen
Just näin. Promptaaminen aina aikamoista hieromista ja on helpompaa iteroida sitä, kun näkee suoraan miksi llm päätyy johonkin vastaukseen.
Deepseekin webbiversioon voi ladata max 300 sivuisen pdf dokumentin. Voiko näihin paikallisiin versioihin ladata useampisivuisia dokumentteja?
Joo voi. Periaatteessa ei ole mitään rajoitetta tiedoston koolla, mutta yhdessä dokumentissa ei käytännössä voi olla useita tuhansia sivuja. AnythingLLM:n sisäinen Emdedder eli tiedoston lukukomponentti tuppaa kaatumaan. (tämänkin voi myös vaihtaa parempaan). Parasta näissä paikallisissa työkaluissa/LLM:ssä on se, että dokumenttien lukumäärää tai yhteiskokoa ei ole rajoitettu. Eli esim. 10 000 sivuisen dokumentin voi lukea sisään useammassa palassa. ( Tietty PDF:n pilkkominen vaatii vähän extra toimia). Isommilla dokumentti määrillä LLM:n tehokkuus kärsii, mutta on kyllä ihan toimiva.
@@AI-Kanava Keskusteleminen tekoälyn kanssa pdf dokumentista ei varmaan vaadi kaikkein tehokkaimman version lataamista. Riippuu ehkä siitä mitä dokumentissa on. Käyttöohjeita lähinnä ajattelen.
@@AI-Kanava Oletko enemmän tätä embeddingiä harrastanut? Tein ollaman, deepseek-r1:14b:n ja langchainin avulla paikallisen RAG-kokeilun, joka osaa kyllä aika hyvin käyttää selväsanaista materiaalia. Sitten kun annoin materiaaliksi pörssiyhtiöiden vakiomuotoisia 10-K -dokumentteja joiden analysoinnista olisin kiinnostunut, niin tuntui ettei malli valitse oikeita embeddingejä tulkittavaksi. Onko sinulla kokemusta miten tällaista voisi optimoida, vai onko yksinkertaisesti vielä liian vähän parametreja ja konteksti-ikkunaa käytössä?
Voiko kyseistä Deepseekin webbiversioviritystä käyttää aidosti anonyymisti vai pitääkö sille ensin tavallaan.. No. Pyllistää, eli antaa sille pääsy sähköpostitilille tms.
Jos sille pitää antaa sähköpostiosoitteensa ja samalla hyväksyy kaikki sopimustekstit niin tulee mieleen että yksityisyys kärsii? DeepSeek is like some sort CCP:s Strap-on belt dildo for the fools of the West🤭
Webbiversioon on kirjauduttava Google tunnuksella/emaililla. Tietty voit luoda itsellesi tällaisia kokeiluja varten esim. testitonttu25@gmail.com tunnuksen, mutta sekin on jäljitettävissä periaatteessa sinuun. Tarkistin vielä samalla, että omalla koneella ajettavan asennuksen voi tehdä kokonaan ilman emailin/tietojen antamista.