⚠ ATTENZIONE ⚠ hanno semplificato la procedura (che fa le stesse cose del tutorial sotto il cofano). Lanciare i comandi: - make build - make setup-config - make run I requisiti rimangono gli stessi (forse hanno cambiato versione python alla 3.11). Ricordate di scaricare versione più recente della repo con "git pull". 👋
Ciao, grazie mille per la guida. con la nuova procedura, dopo aver installato make su WSL, riscontro problemi quando avvio make run. Running the app... /usr/bin/env: ‘bash ’: No such file or directory make: *** [Makefile:36: run] Error 127 . dovrei togliere dal bash ma non lo trovo nel file Makefile
ciao, installato tutto con la nuova procedura ma rimane piantato con la chat in "Initializing agent (may take up to 10 seconds)..." dopo più di mezz'ora (sono su Mac).. a qualcun altro è capitato ed è riuscito ad uscirne?
Su windows ho problemi a lanciare il backend mi da errore che non trova la libcdnn.so.8 quindi qualcosa che a che fare con la scheda grafica. Non ho trovato nessuna issue riguardante questo errore. Tu hai qualche idea?
Vero adesso è ancora più semplice con make Build e Make Run, cmq se si utilizza WSL bisogna installare tutti i pacchetti Docker, Python e Node.js dal terminale WSL , non li installate su windows perchè non li vede naturalmente essendo un ambiente diverso.
Cambiato mille volte, ma per farlo funzionare ho rifatto tutto manualmente ieri. Domani 3 maggio in live (parte 2 con Gemini e Llama) ne parliamo e mostro il tutto
Ciao. La parte backend non so quanto sia pesante, credo non tanto. Docker penso giri senza problemi ma ovviamente dipende che task deve fare, secondo me puoi provare tranquillamente
@@giuppidev Invece per il tema API, conosci qualche servizio free per le API? o sai consigliare qualche AI standalone rapida da deployare (magari un bel container) che anche se meno precisa può andare bene per la sperimentazione di questo progetto, senza pagare un rene di crediti?
Interessante! Mi chiedevo se opendevin posso agganciarlo a un llmodel avviato in locale ad esempio con llmstudio , quindi senza pagare sghei 😅. Appena ho tempo farò delle prove e la prima cosa che vorrei far fare a devin è metterlo alla prova nel analizzare un progetto gia esistente (ad esempio il mio portfolio digitale scritto in Angular, express. Mongo su docker) e farmi dire da lui un analisi del codice come se fosse un consulente esterno a cui chiedere di fare application management classica. Quello che voglio capire è la capacità di intervenire su codice di applicazioni complesse gia esistenti. Alla prox e grazie per questi video 🤙
in teoria supporta parecchi llm, quindi perché no, risparmiamoli sti sghei! Il caso d'uso è interessante, suppongo tu debba passargli la repo nella directory workspace per poter accedere al codice dalla sandbox. Per queste cose non so se ti conviene direttamente un agent dei vari da IDE che ti fanno analisi codice, ma con l'approccio che usa Devin potrebbe essere interessante provare
Infatti da cio che ho capito opendevin ragiona su una workspace gestita all'interno della sua macchinetta (sandbox) e, se il giro che ho in mente ha senso, vorrei che dato in pasto un repository git del codice backend (express) opendevin deve essere in grado di analizzare il codice, le dipendenze, i vari routes e, se riesce, i vari algoritmi dei metodi che recuperano i dati e li espone alle api rest e darmi un feedback, all'inizio senza fare modifiche al codice, ma solo un analisi. E progressivamente darli in pasto il repository frontend in angular e, sulla base dell'analisi del backend, fare lo stesso sul frontend . Se il trip che ho in mente ha il suo senso, vorrei che opendevin mi possa consigliare come integrare in pochi passaggi un layer di autenticazione (ora non c'è ma è predisposto), nel caso me lo fa lui, altrimenti lo faccio io dalle sue osservazioni e al massimo delegare a lui le parti piu noiose. Riassumendo vorrei testare opendevin per vedere come se la cava nell'integrare l'autenticazione (basic e progressivamente federata) in una applicazione mean. Voglio vedere come se la cava nel trovare soluzioni "secure by design". Daje poi ti farò sapere se combino qualcosa. A presto e buona pasquetta
@@giuppidev eila buona sera giuppi! Volevo darti un feedback su questa prova. Stamattina ho installato con successo opendevin (dopo aver tribolato un pò con la versione python 3.11 che su ubuntu non aveva i repository aggiornati e lo spazio necessario che ho dovuto aggiungere sulla vm virtualbox). Per ora sto utilizzando i token chatgpt di 10 dollari che avevo acquistato tempo fa e sono riuscito a farlo andare. Posso dirti che su progetti grossi ancora non è in grado di muoversi agilmente, tra l'altro me lo ha detto lo stesso devin, il quale si è limitato a darmi una spiegazione teorica sulla integrazione di autenticazione che volevo fare. Anche dopo averli chiesto di crearmi uno scaffold semplice di frontend e backend mean con un autenticazione, non mi ha saputo generare codice ma ha fatto spiegazioni teoriche. Gli ho fatto fare qualche cosina di codice semplice ed è molto figo come faceva le sue cose di commit e test, fino al completamento del task, seppur semplice. Questa operazione è costata circa due dollari , quindi consuma parecchio :)! Appena ho tempo cercherò di usare un modello llm locale e fare questo altro test di integrazione. Morale della favola, devin ha tante potenzialità , ma per fortuna non è abile come un AGI ahah (per fortuna :)). Nel frattempo ho preso la palla al balzo è ho usato chatgpt per darmi le dritte minimali per integrare un layer di autenticazione su un applicazione web che non lo aveva, e sono riuscito in poco meno di tre ore a integrarlo con tanto di gestione utenti e ruoli su mongodb e autenticazione chirurgica delle api rest che volevo autenticare. Insomma in ogni caso queste AI dimostrano quanto siano rivoluzionarie e come risolvano problemi complessi, ma tutto dipende dalla giusta domanda e dalle competenze che uno ha , sicuramente non sono degli automi ed è ancora lontana l'era dello skynet micidiale che domina il mondo! :) daje a presto !
@@giuppidev Schei ragazzi, si dice Schei, dall'Austriaco scheidemünze. A parte la sottigliezza...bel video complimenti! Tienici aggiornati su futuri sviluppi perché questa cosa è oltremodo interessante.
Sicuramente acerbo, anche se è in continuo aggiornamento. Interessante da studiare anche per crearsi propri progetti che usino lo stesso approccio secondo me
L'assistente usa gpt4, le api mi costano una fucilata e onestamente non mi è sembrato nulla di particolare. Ho modificato mettendoci gtp3.5-turbo e non gli è piaciuto. Attenzione con questi pacchi
confermo che consuma token a quintali, lo dico anche nei video. però si può usare un altro model più economico, locale volendo. la domanda è: ne vale la pena?
Bel video, che da windows non ha funzionato con il nuovo github, ma seguendo i vecchi comandi ha funzionato. Solo che i 10 secondi necessari all'agente sono eterni... perche vuole caricare ChatGPT4.... quando io ho messo 3.5!?!?! :(
Please check Docker is running using `docker ps`. Error! Error while fetching server API version: (2, 'CreateFile', 'The system cannot find the file specified.') Failed to stop container: Error while fetching server API version: (2, 'CreateFile', 'The system cannot find the file specified.') Error creating controller.
⚠ ATTENZIONE ⚠ hanno semplificato la procedura (che fa le stesse cose del tutorial sotto il cofano).
Lanciare i comandi:
- make build
- make setup-config
- make run
I requisiti rimangono gli stessi (forse hanno cambiato versione python alla 3.11).
Ricordate di scaricare versione più recente della repo con "git pull". 👋
grazie della guida. purtroppo la nuova procedura si inceppa con linux
Come mai se vado al interno del progetto non riconosce il comando make ?
Ciao, grazie mille per la guida. con la nuova procedura, dopo aver installato make su WSL, riscontro problemi quando avvio make run. Running the app...
/usr/bin/env: ‘bash
’: No such file or directory
make: *** [Makefile:36: run] Error 127 . dovrei togliere
dal bash ma non lo trovo nel file Makefile
@@gabriel.semeniuc credo tu debba aprire il terminale WSL, non il cmd
Si ma su Windows la vedo dura
boia...spieghi da dio!!!🥰🥰🥰grazie davvero x qsto preziosissimo video
Oh ma grazie, commento molto apprezzato! 😍
Ottimo video ed ottima spiegazione, bravo! Se ne hai voglia, perché non fai un video anche su un caso d'uso pratico?...credo sarebbe interessante
ti ringrazio molto! sì ho un paio di idee a riguardo, ma sicuramente lo metterò alla prova con casi reali
Grazie mille per la guida, davvero notevole🎉🎉
Grazie a te del commento! 🚀
ciao, installato tutto con la nuova procedura ma rimane piantato con la chat in "Initializing agent (may take up to 10 seconds)..." dopo più di mezz'ora (sono su Mac).. a qualcun altro è capitato ed è riuscito ad uscirne?
se non da errori è molto strano, di solito stampa output di cosa riceve dal server
Su windows ho problemi a lanciare il backend mi da errore che non trova la libcdnn.so.8 quindi qualcosa che a che fare con la scheda grafica. Non ho trovato nessuna issue riguardante questo errore. Tu hai qualche idea?
Ok risolto facendo un downgrade di pythorch dalla versione 2.2.2 che aveva installato di default alla versione 2.2.1
ok ho letto ora sorry. ottimo che hai risolto 🚀
Bravo!
Vero adesso è ancora più semplice con make Build e Make Run, cmq se si utilizza WSL bisogna installare tutti i pacchetti Docker, Python e Node.js dal terminale WSL , non li installate su windows perchè non li vede naturalmente essendo un ambiente diverso.
Grazie della precisazione! 🚀 non ricordo tutta la confusione che crea ogni volta wsl 🤣
parto con git clone (link) e mi da errore
Ma è una mia impressione o quelle istruzioni per l'installazione non sono più disponibili da nessuna parte?
Cambiato mille volte, ma per farlo funzionare ho rifatto tutto manualmente ieri. Domani 3 maggio in live (parte 2 con Gemini e Llama) ne parliamo e mostro il tutto
ciao giuseppe perchè non mi riconosce uvicorn? mi da che non è riconosciuto come comando interno o esterno,un exe o un file batch (ho w11)
puoi provare a lanciarlo come comando python:
python -m uvicorn .....
quando fai lo swipe a sx al minuto 2:06 che broswer o estensione stai usando?, grazie.
ARC browser, ci ho fatto un video
video rilassante post pasquetta
Concilia la digestione 😎
Ciao, requisiti minimi per farlo girare? Ho una VM con 2 CPU e 2GB RAM, potrebbe girare?
Ciao. La parte backend non so quanto sia pesante, credo non tanto. Docker penso giri senza problemi ma ovviamente dipende che task deve fare, secondo me puoi provare tranquillamente
@@giuppidev Invece per il tema API, conosci qualche servizio free per le API? o sai consigliare qualche AI standalone rapida da deployare (magari un bel container) che anche se meno precisa può andare bene per la sperimentazione di questo progetto, senza pagare un rene di crediti?
Interessante! Mi chiedevo se opendevin posso agganciarlo a un llmodel avviato in locale ad esempio con llmstudio , quindi senza pagare sghei 😅. Appena ho tempo farò delle prove e la prima cosa che vorrei far fare a devin è metterlo alla prova nel analizzare un progetto gia esistente (ad esempio il mio portfolio digitale scritto in Angular, express. Mongo su docker) e farmi dire da lui un analisi del codice come se fosse un consulente esterno a cui chiedere di fare application management classica. Quello che voglio capire è la capacità di intervenire su codice di applicazioni complesse gia esistenti. Alla prox e grazie per questi video 🤙
in teoria supporta parecchi llm, quindi perché no, risparmiamoli sti sghei! Il caso d'uso è interessante, suppongo tu debba passargli la repo nella directory workspace per poter accedere al codice dalla sandbox. Per queste cose non so se ti conviene direttamente un agent dei vari da IDE che ti fanno analisi codice, ma con l'approccio che usa Devin potrebbe essere interessante provare
Infatti da cio che ho capito opendevin ragiona su una workspace gestita all'interno della sua macchinetta (sandbox) e, se il giro che ho in mente ha senso, vorrei che dato in pasto un repository git del codice backend (express) opendevin deve essere in grado di analizzare il codice, le dipendenze, i vari routes e, se riesce, i vari algoritmi dei metodi che recuperano i dati e li espone alle api rest e darmi un feedback, all'inizio senza fare modifiche al codice, ma solo un analisi. E progressivamente darli in pasto il repository frontend in angular e, sulla base dell'analisi del backend, fare lo stesso sul frontend . Se il trip che ho in mente ha il suo senso, vorrei che opendevin mi possa consigliare come integrare in pochi passaggi un layer di autenticazione (ora non c'è ma è predisposto), nel caso me lo fa lui, altrimenti lo faccio io dalle sue osservazioni e al massimo delegare a lui le parti piu noiose. Riassumendo vorrei testare opendevin per vedere come se la cava nell'integrare l'autenticazione (basic e progressivamente federata) in una applicazione mean. Voglio vedere come se la cava nel trovare soluzioni "secure by design". Daje poi ti farò sapere se combino qualcosa. A presto e buona pasquetta
Sono molto curioso, vorrebbe dire demandargli task anche grossi in un progetto. Fammi sapere!
@@giuppidev eila buona sera giuppi! Volevo darti un feedback su questa prova. Stamattina ho installato con successo opendevin (dopo aver tribolato un pò con la versione python 3.11 che su ubuntu non aveva i repository aggiornati e lo spazio necessario che ho dovuto aggiungere sulla vm virtualbox). Per ora sto utilizzando i token chatgpt di 10 dollari che avevo acquistato tempo fa e sono riuscito a farlo andare. Posso dirti che su progetti grossi ancora non è in grado di muoversi agilmente, tra l'altro me lo ha detto lo stesso devin, il quale si è limitato a darmi una spiegazione teorica sulla integrazione di autenticazione che volevo fare. Anche dopo averli chiesto di crearmi uno scaffold semplice di frontend e backend mean con un autenticazione, non mi ha saputo generare codice ma ha fatto spiegazioni teoriche. Gli ho fatto fare qualche cosina di codice semplice ed è molto figo come faceva le sue cose di commit e test, fino al completamento del task, seppur semplice. Questa operazione è costata circa due dollari , quindi consuma parecchio :)! Appena ho tempo cercherò di usare un modello llm locale e fare questo altro test di integrazione. Morale della favola, devin ha tante potenzialità , ma per fortuna non è abile come un AGI ahah (per fortuna :)). Nel frattempo ho preso la palla al balzo è ho usato chatgpt per darmi le dritte minimali per integrare un layer di autenticazione su un applicazione web che non lo aveva, e sono riuscito in poco meno di tre ore a integrarlo con tanto di gestione utenti e ruoli su mongodb e autenticazione chirurgica delle api rest che volevo autenticare. Insomma in ogni caso queste AI dimostrano quanto siano rivoluzionarie e come risolvano problemi complessi, ma tutto dipende dalla giusta domanda e dalle competenze che uno ha , sicuramente non sono degli automi ed è ancora lontana l'era dello skynet micidiale che domina il mondo! :) daje a presto !
@@giuppidev Schei ragazzi, si dice Schei, dall'Austriaco scheidemünze. A parte la sottigliezza...bel video complimenti! Tienici aggiornati su futuri sviluppi perché questa cosa è oltremodo interessante.
Già provato più volte dal Day 1 ma ancora troppo acerbo cone Devika, spero riescano a renderlo stabile a breve
Sicuramente acerbo, anche se è in continuo aggiornamento. Interessante da studiare anche per crearsi propri progetti che usino lo stesso approccio secondo me
Ma praticamente si limita a passare il prompt a GPT e lo esegue?
manga a GPT, lo esegue, va in errore, lo corregge, va avanti, trova la soluzione, corregge, corregge...fino a che tutto va. A mio avviso tanta roba
@@bat84car il rischio di errori mi sembra elevatissimo
confermo quanto scrive @bat84car. gli errori ci sono sicuramente, ma meno che una semplice richiesta diretta, facendo tante iterazioni.
L'assistente usa gpt4, le api mi costano una fucilata e onestamente non mi è sembrato nulla di particolare. Ho modificato mettendoci gtp3.5-turbo e non gli è piaciuto. Attenzione con questi pacchi
confermo che consuma token a quintali, lo dico anche nei video. però si può usare un altro model più economico, locale volendo. la domanda è: ne vale la pena?
Bel video, che da windows non ha funzionato con il nuovo github, ma seguendo i vecchi comandi ha funzionato. Solo che i 10 secondi necessari all'agente sono eterni... perche vuole caricare ChatGPT4.... quando io ho messo 3.5!?!?! :(
Please check Docker is running using `docker ps`.
Error! Error while fetching server API version: (2, 'CreateFile', 'The system cannot find the file specified.')
Failed to stop container: Error while fetching server API version: (2, 'CreateFile', 'The system cannot find the file specified.')
Error creating controller.
Non ho provato col make, ma nel frattempo mi sembra abbiano cambiato ancora, con una immagine docker da eseguire.
Che browser stai utilizzando?
ARC ci ha fatto un video dedicato
ARC, un browser molto (ci ho fatto un video, come dice il buon stelvio)
Si può usare su Colab?
onestamente non saprei, mi viene da pensare che con parecchi giri potrebbe funzionare. Se provi, fammi sapere!
fai un video su come collegare gemini ad opendevin
dato che quasi tutti non possono permettersi di ricaricare chatgpt o fare un abbonamento
Venerdì faccio un video/panoramica sui vari servizi simili, poi settimana prossima pensavo di fare una live coding con tra gli altri questo test
😢il dramma è non avere una carta di credito valida per openai api …
massi dai che è ancora sperimentale. se hai test pazzeschi da farci scrivili qui che ci facciamo video 😊
not work
sarebbe bello da parte tua una procedura piu facile ,installare e via sarebbe il top.grazie
Questa settimana ne dovrei provare un altro, vediamo se va meglio. Poi qualcosa si può fare