a occhio e croce è la scopiazzatura di o3 di chatgpt o sbaglio? Su linux come va? pensavo lo facessi vedere sarebbe bello vedere una comparison 4070s vs arcb580 visto che hanno entrambi 12gb di vram
Essendo che Microsoft partecipa in Open AI con l'acquisto azionario di qualche tempo fà di 12 Miliardi di dollari in azioni, non capisco perché continuino a lavorare a rami semparati. Bah, misteri che solo Microsoft fa e non solo con il settore AI
No, o3 è un reasoning model ha un costo ancora spropositato per essere rilasciato su Cluster in Cloud ed ha un tipo di training diverso dai classici LLMs. Phi-4 è uno open-source model "piccolo" pensato per essere la lanciato localmente o in Cloud per avere costi molto bassi. Dovrebbe essere un LLM classico, ma allenato su dati di buona qualità.
ciao , secondo te in futuro ci sarà sempre bisogno di una scheda video potente per far girare l'ia in locale e si tornerà come una volta all'acceleratore grafico sotto forma di unità neurale?
Ma se hai una scheda di merda a patto di accettare rallentamenti potresti farlo lavorare con la ram? Che ne so metti che uno ha una 4060 del ca..o da 8gb
si si può. Tutti i software permettono di dividere il lavoro tra cpu e gpu e di usare la shared memory. Io sulla 3070 usavo mistral nemo 12B ed era abbastanza veloce
@@OlindoPindaro se sai programmare un pochino, c'è llama-cpp-python che può essere compilato col supporto per Mac. È abbastanza semplice e non richiede particolare esperienza, oltre a un minimo di familiarità con la programmazione e i suoi strumenti
Eh come al solito ne fa una giusta su 5. Quindi godetevi questa finché potete🤣🤣 Microsoft quella che per trent'anni ce ne ha messo a fare un sistema decente come un vecchio Amiga workbench, scopiazzando. 😅😅 E comunque l'AI riesco a farla anche con il mio processore che non la supporta... è tutta roba in rete. È più uno specchietto per allodole
in realtà a windows mancano ancora diverse cose che AmigaOs aveva, tipo scrolling sempre fluido e autospostamento del cursore da dove scrivi, ed il concetto dei datatypes ad esempio...
@@OlindoPindaro Sì lo uso anch'io per forza di cose, però cerco di evitare gli errori di Microsoft . Io fino XP prima usavo sempre Amiga pompati fino al moderno AmigaOS4, che poi , se non fosse per la sola mancanza della webcam lo userei ancora adesso senza problemi ,anche con le IA e Programmi che hanno trent'anni e vanno benissimo dal fotoritocco fino a gimp e blender.
@@NicolaTondini ESATTO 👍👍E poi l'architettura dell OS Amiga? Ancora nessuno è arrivato alla sua leggerezza, trasparenza , leggibilità e riconoscimento dei file di sistema, e facilità d'uso con un click o da prompt.
Uso Copilot giornalmente, veramente strautile !!! PS: Windows 12 sarà disponibile solo in versione PRO, con chiavetta usb originale al prezzo di 99€ !!!
devi andare da un bun chirurgo e farti installare il portatile alla base del cranio... l'operazione non è tanto difficile ma purtroppo ti ritroverai con un collo sbilenco.
@meloannachi443 ah ok grazie però lo prendo in po più potente del tuo perché volevo saper fare le 4 operazioni fondamentali dai. Ah già ma non sai cosa sono !
@@pappyjoe569 io ho installato un pc fisso e devi vedere che spettacolo, l'ho preso con un case con paretina di vetro in modo da aver pure la vista sul mare, il problema è quando giro la testa che sbatto sempre il naso sulla scheda grafica
Certo che ha fatto qualcosa di nuovo e che funziona e forse te lo sei perso: Azure Linux, e finalmente ha confermato wuale OD utilizza per fornire servizi funzionanti 😮
Ne sto provando una versione quantizzata non ufficiale, non capisco se sia una sola ma, riesce a svolgere delle operazioni logiche dove altri llm vanno a caso, ha un'analisi più accurata
Non credo che tu abbia capito bene Saddy 😂. O hai visto 1’ di video o ti riferisci al codice Windows 😂. Comunque è uno dei più onesti tek italiani 😅. Oppure non riesco a capire il tuo commento 😊
Scusa ma non puoi paragonare un LLM che gira su un pc locale con un LLM che gira non si sa bene su quale datacenter, e' come paragonare una panda e una ferrari in una gara.
Ma che plug in é quello do vs code che aggrega gli llm locali e con api?
Phi-4 è tra i miei preferiti ma un contesto troppo piccolo rispetto qwen o llama
Ciao Saddy,
Perdona il disturbo, ma come si chiama il plugin per visual studio che stai usando? Tabnine?
Grazie mille e fantastico video. 👍🏻
a occhio e croce è la scopiazzatura di o3 di chatgpt o sbaglio?
Su linux come va? pensavo lo facessi vedere
sarebbe bello vedere una comparison 4070s vs arcb580 visto che hanno entrambi 12gb di vram
Essendo che Microsoft partecipa in Open AI con l'acquisto azionario di qualche tempo fà di 12 Miliardi di dollari in azioni, non capisco perché continuino a lavorare a rami semparati. Bah, misteri che solo Microsoft fa e non solo con il settore AI
No, o3 è un reasoning model ha un costo ancora spropositato per essere rilasciato su Cluster in Cloud ed ha un tipo di training diverso dai classici LLMs.
Phi-4 è uno open-source model "piccolo" pensato per essere la lanciato localmente o in Cloud per avere costi molto bassi. Dovrebbe essere un LLM classico, ma allenato su dati di buona qualità.
@@italiangentleman1501 ok grazie mille
Il modello non dipende dal sistema operativo, quindi su Windows, Linux o Mac, girerà allo stesso modo
Ma cosa usi per sviluppare il codice con il chatbot? VSCodium?
ciao , secondo te in futuro ci sarà sempre bisogno di una scheda video potente per far girare l'ia in locale e si tornerà come una volta all'acceleratore grafico sotto forma di unità neurale?
Tempo poche settimane e Microsoft smerdera' tutto quanto fatto di buono.
Ma se hai una scheda di merda a patto di accettare rallentamenti potresti farlo lavorare con la ram? Che ne so metti che uno ha una 4060 del ca..o da 8gb
no solo llama3 cpp sotto Linux
si si può. Tutti i software permettono di dividere il lavoro tra cpu e gpu e di usare la shared memory. Io sulla 3070 usavo mistral nemo 12B ed era abbastanza veloce
@@daniel91gn ah ecco mi sembrava
l'unica spiegazione é che in Micromorbido se so' sbajati! mo' fanno la patch e scassano tutto, fidete! Bella pe' tutti se beccamo l'anno prossimo!
Ma per mac mini m4 che c'è? C'è la fa con la sua gpu?
Si,, perchè non c'è distinzione tra RAM e VRAM quindi ci stà nei 16gb...
@RamiroBongiovanni ho comprato 32g
puoi spostare la memoria con un comando specifico su macosz
@@shaice ma ci sono engine llm che sfruttano hardware mac? I modelli di ollama vanno su amd e nvidea
@@OlindoPindaro se sai programmare un pochino, c'è llama-cpp-python che può essere compilato col supporto per Mac. È abbastanza semplice e non richiede particolare esperienza, oltre a un minimo di familiarità con la programmazione e i suoi strumenti
Buon anno!
leggo: MICROSOFT CE L'HA FATTA! FINALMENTE QUALCOSA DI BUONO!
è fallita?
Eh come al solito ne fa una giusta su 5. Quindi godetevi questa finché potete🤣🤣
Microsoft quella che per trent'anni ce ne ha messo a fare un sistema decente come un vecchio Amiga workbench, scopiazzando. 😅😅 E comunque l'AI riesco a farla anche con il mio processore che non la supporta... è tutta roba in rete.
È più uno specchietto per allodole
@@CelentAle mo ragazzi neanche a me winzoz sta simpatica ma è il sistema operativo più usato ed il suo porco lavoro lo fa
in realtà a windows mancano ancora diverse cose che AmigaOs aveva, tipo scrolling sempre fluido e autospostamento del cursore da dove scrivi, ed il concetto dei datatypes ad esempio...
@@OlindoPindaro Sì lo uso anch'io per forza di cose, però cerco di evitare gli errori di Microsoft . Io fino XP prima usavo sempre Amiga pompati fino al moderno AmigaOS4, che poi , se non fosse per la sola mancanza della webcam lo userei ancora adesso senza problemi ,anche con le IA e Programmi che hanno trent'anni e vanno benissimo dal fotoritocco fino a gimp e blender.
@@NicolaTondini ESATTO 👍👍E poi l'architettura dell OS Amiga? Ancora nessuno è arrivato alla sua leggerezza, trasparenza , leggibilità e riconoscimento dei file di sistema, e facilità d'uso con un click o da prompt.
Uso Copilot giornalmente, veramente strautile !!!
PS: Windows 12 sarà disponibile solo in versione PRO, con chiavetta usb originale al prezzo di 99€ !!!
copliot per me è une cacata. Gli dò un imagine come ispirazione, e lui mi fa solo cacate.
Fonte pls
@@pippopluto8004 Fonte W12: la mia fantasia... sarebbe una mossa troppo intelligente per Microsoft.
Ahaha, ok. Pirla io che ci ho creduto 😂😂
sarà disponibile solo in versione pirata... con la benda sull'occhio
Mmmmmmh 15 token x second mi sembrano un po pochi per una 4070 ....sus
Ma io che sono un ciucio e di intelligenza artificiale ne avrei bisogno assai, ed ho un portatile come beneficio di questa notizia ?
devi andare da un bun chirurgo e farti installare il portatile alla base del cranio... l'operazione non è tanto difficile ma purtroppo ti ritroverai con un collo sbilenco.
@meloannachi443 ah ok grazie però lo prendo in po più potente del tuo perché volevo saper fare le 4 operazioni fondamentali dai. Ah già ma non sai cosa sono !
@@pappyjoe569 io ho installato un pc fisso e devi vedere che spettacolo, l'ho preso con un case con paretina di vetro in modo da aver pure la vista sul mare, il problema è quando giro la testa che sbatto sempre il naso sulla scheda grafica
PHI-CO !
Certo che ha fatto qualcosa di nuovo e che funziona e forse te lo sei perso: Azure Linux, e finalmente ha confermato wuale OD utilizza per fornire servizi funzionanti 😮
per programmare, inutile. le cose importanti nella vita sono altre
la PHI-...
come mai Windows?
in pratica non serve a granche
Ne sto provando una versione quantizzata non ufficiale, non capisco se sia una sola ma, riesce a svolgere delle operazioni logiche dove altri llm vanno a caso, ha un'analisi più accurata
La phi è sempre la phi
Ma scusa perché pubblicizzi Windows se dici che fa tutto schifo? Sara mica che fa schifo ma se ci guadagnamo va bene lo stesso?
Mi sono perso il punto in cui pubblicizzo Windows
Ma che discorso eh? Se la pubblicità è esplicita non c'è nulla di male a farla
Non credo che tu abbia capito bene Saddy 😂. O hai visto 1’ di video o ti riferisci al codice Windows 😂.
Comunque è uno dei più onesti tek italiani 😅.
Oppure non riesco a capire il tuo commento 😊
Il genio 😂
raga ma perché continuate a smerdare windows, chi disprezza compra
Chi dice che sia assurdo che Microsoft faccia prodotti buoni in quale pianeta vive?🤣
# saluti 2024
Windows è free 🤪
Scusa ma non puoi paragonare un LLM che gira su un pc locale con un LLM che gira non si sa bene su quale datacenter, e' come paragonare una panda e una ferrari in una gara.
Io preferisco Alexa, la cantante
pure io preferisco Alexa, la figona