Mong cả nhà ủng hộ và góp ý chân thành cho tôi! #MìAI Fanpage: facebook.com/miaiblog Group trao đổi, chia sẻ: facebook.com/groups/miaig... Website: miai.vn UA-cam: ua-cam.com/users/MiAIblog
Xin bổ xung ngay chổ gom kết quả từ các head lại trước khi đưa qua Decoder, phần này tổng hợp các z đầu ra của các head sau khi chạy xong multihead, đó là nó dùng 1 ma trận trọng số để gom các head lại với nhau chứ không phải tính trung bình. Nguyên bản trong bài Attention is all you need nó thế này: MultiHead(Q; K; V ) = Concat(head1; :::; headh)WO where headi = Attention(QWiQ; KWiK; V WiV )
3 роки тому+1
Cảm ơn bạn. Mình sẽ bổ sung vào note vì ko quay lại được video!
Em cũng là 1 người học theo trải nghiệm và muốn giải thích mọi thử theo cảm quan của 1 người bình thường để dể thấu hiểu về các thuật toán , bài của a thực sự rất hay Mong một ngày nào đó có thể cùng anh làm việc :).
3 роки тому
Cảm ơn em rất rất nhiều. Hi vọng trên đường đời anh em ta được làm cùng nhau :D
anh có thể làm thêm về hướng dẫn mã code cho mỗi mô hình mạng thần kinh không anh , em tự học và biết được kha khá kiến trúc mô hình deep learning em đang cần luyện code để củng cố kiến thức . Mong anh có thể ra nhiều video code hơn
Cảm ơn anh nhiều, bữa em hỏi Longformer á mà chắc anh tưởng Transformer. Hi vọng anh tạo ra nhiều clip dễ hiểu và bổ ích như này ạ. Mà hình như mấy bữa nay anh sụt sịt, mong anh giữ sức khỏe.
4 роки тому+3
Không em. Longformer của em anh nhớ mà. Nhưng mà anh đi từ base lên cho chắc :D Cảm ơn em nhé, anh đỡ hơn rồi!
Em thấy nhiều câu hỏi trên mạng về mục đích của Feedforward neuron network, nhưng không giải thích kỹ, anh có thể làm 1 bài về FNN trong transformer để hiểu kỹ hơn được k ạ, em cảm ơn anh!
Tks Mì, nhưng mình thấy anh nói chưa ngắn gọn dễ hiểu cho lắm, đặc biết đến đoạn có cái câu: Đoạn nhầm chút" là mình drop luôn vì loạn với khó hiểu quá
Cảm ơn Mì AI vì bài dễ hiểu này. Ad có thể cung cấp thêm các trang reference được dùng trong bài để thêm khảo thêm được không ạ? Vì cần các file hình ảnh để note lại khi theo dõi bài. Cảm ơn Ad nhiều.
dễ hiểu .thanks anh. hôm nào anh có thể làm 1 bài về CRAFT (Character Region Awareness for Text Detection) không ạ . Vì em thấy ứng dụng cũng khá nhiều. em cảm ơn và chúc kênh của anh ngày càng phát triển ạ
Cho em hỏi là cái anh giải thích là quá trình train hay sử dụng mạng vậy ạ. Ví dụ em đã train đc ra file .h hoặc .pth thì đầu vào encoder của em là câu hỏi thì decoder lấy đâu ra câu trả lời có sẵn để masking ạ. Nó dự đoán ra cầu trả lời mà.
Рік тому
Em post lên facebook.com/groups/miaigroup để anh gửi thêm info cho tiện nhé! Trên này ko cho đính kèm gì :(
Trời, nguyên phần sau em soạn chi tiết post lên cho anh bị anh xóa mất tiêu luôn rồi. Em correct anh phần multiheads anh hiểu sai mất tiêu rồi. Làm vậy những người sau làm theo sai hết trơn
anh ơi slide này mình còn không ạ , em ấn vào link nhưng không tìm thấy ạ
10 місяців тому
Em vào phần mô tả của video có link tải đó. nếu chưa biết cách tải từ link đó thì em xem video này: ua-cam.com/video/BTs2KU0E8dY/v-deo.html&embeds_referring_euri=https%3A%2F%2Fmiai.vn%2F&source_ve_path=OTY3MTQ&feature=emb_imp_woyt
Mong cả nhà ủng hộ và góp ý chân thành cho tôi!
#MìAI
Fanpage: facebook.com/miaiblog
Group trao đổi, chia sẻ: facebook.com/groups/miaig...
Website: miai.vn
UA-cam: ua-cam.com/users/MiAIblog
Video hay quá ạ ^^ thanks a
em cảm ơn anh Mì, nhờ a mà việc tiếp cận các thuật toán thật sự tự nhiên ạ, chúc anh và gia đình nhiều sức khỏe
Cảm ơn em. Cần thêm gì cứ lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup nhé!
Xin bổ xung ngay chổ gom kết quả từ các head lại trước khi đưa qua Decoder, phần này tổng hợp các z đầu ra của các head sau khi chạy xong multihead, đó là nó dùng 1 ma trận trọng số để gom các head lại với nhau chứ không phải tính trung bình.
Nguyên bản trong bài Attention is all you need nó thế này:
MultiHead(Q; K; V ) = Concat(head1; :::; headh)WO where headi = Attention(QWiQ; KWiK; V WiV )
Cảm ơn bạn. Mình sẽ bổ sung vào note vì ko quay lại được video!
Anh cho em xin tài liệu phần decoder với.
Em cũng là 1 người học theo trải nghiệm và muốn giải thích mọi thử theo cảm quan của 1 người bình thường để dể thấu hiểu về các thuật toán , bài của a thực sự rất hay
Mong một ngày nào đó có thể cùng anh làm việc :).
Cảm ơn em rất rất nhiều. Hi vọng trên đường đời anh em ta được làm cùng nhau :D
Cảm ơn Mì AI nhiều
Yeah. Cảm ơn rất nhiều và mong nhận được góp ý của các bạn để video sau sẽ tốt hơn :D
Cảm ơn bác Thắng. Video giải thích rất dễ hiểu.
Cảm ơn bạn. Cần thêm gì cứ lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup nhé!
Cảm ơn Mì AI nhiều ạ, một clip rất dễ hiểu.
Cảm ơn em. Cần thêm gì cứ lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup nhé!
cảm ơn a đã làm video giải thích chi tiết ạ!
Thanks em. Cần thêm gì post lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup nhé!
Em cảm ơn anh Mì vì video rất hữu ích ạ. Không biết Mì AI có video về Bert như lúc anh nói ở cuối video chưa vậy ạ
Hihi a lại chưa làm rồi. Để a bố trí nhé!
anh có thể làm thêm về hướng dẫn mã code cho mỗi mô hình mạng thần kinh không anh , em tự học và biết được kha khá kiến trúc mô hình deep learning em đang cần luyện code để củng cố kiến thức . Mong anh có thể ra nhiều video code hơn
Okie em. Anh sẽ bố trí nhé. Cảm ơn em ủng hộ nha!
Cảm ơn anh nhiều, bữa em hỏi Longformer á mà chắc anh tưởng Transformer.
Hi vọng anh tạo ra nhiều clip dễ hiểu và bổ ích như này ạ.
Mà hình như mấy bữa nay anh sụt sịt, mong anh giữ sức khỏe.
Không em. Longformer của em anh nhớ mà. Nhưng mà anh đi từ base lên cho chắc :D
Cảm ơn em nhé, anh đỡ hơn rồi!
Anh có làm 1 seri về Rasa, nào anh làm về Rasa liên kết với các mô hình ngôn ngữ đi ạ (ví dụ như Transformer hay PhoBert chẳng hạn ấy ạ)
Yeah. Để anh bố trí nha!
Thanks a, bài giảng rất dễ hiểu. Cho em hỏi là đã có video về BERT chưa ạ
Đợt này anh bận quá. Anh sẽ cố bố trí.
Rất hay và dễ hiểu ạ. Cảm ơn anh. 💚
Cảm ơn bạn rất nhiều vì luôn ủng hộ nhé :D
Nhân tiện về transfomer này, anh làm thêm 1 video về cái google bert đi anh 💚, rất mong chờ từng video của anh.
Cảm ơn AD nhiều ạ
Cảm ơn em. Cần thêm gì cứ lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup nhé!
Cảm ơn anh nhiều ạ.
Cảm ơn em. Cần thêm gì cứ lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup nhé!
hay a ơi . em cảm ơn
Cảm ơn em. Cần thêm gì cứ lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup nhé!
Em thấy nhiều câu hỏi trên mạng về mục đích của Feedforward neuron network, nhưng không giải thích kỹ, anh có thể làm 1 bài về FNN trong transformer để hiểu kỹ hơn được k ạ, em cảm ơn anh!
Okie em. Hẹn em vào các bài sau nhé!
Đúng cái em đang tìm hiểu anh ơi, thanks anh. Theo anh model này nếu áp dụng vào mô hình classification sequence input liệu có ổn không?
Ổn luôn em!
Tks Mì, nhưng mình thấy anh nói chưa ngắn gọn dễ hiểu cho lắm, đặc biết đến đoạn có cái câu: Đoạn nhầm chút" là mình drop luôn vì loạn với khó hiểu quá
Thanks bạn. Mình sẽ cố gắng lần sau nhé.
Nhờ anh hướng dẫn Bert luôn ạ.
Đây em
www.google.com/search?q=miai+bert&rlz=1C1GCEU_enVN910VN910&oq=miai+bert&aqs=chrome..69i57j69i64.1455j0j1&sourceid=chrome&ie=UTF-8
Cảm ơn Mì AI vì bài dễ hiểu này. Ad có thể cung cấp thêm các trang reference được dùng trong bài để thêm khảo thêm được không ạ? Vì cần các file hình ảnh để note lại khi theo dõi bài. Cảm ơn Ad nhiều.
OK bạn. Mình sẽ bổ sung vào phần mô tả nhé!
dễ hiểu .thanks anh. hôm nào anh có thể làm 1 bài về CRAFT (Character Region Awareness for Text Detection) không ạ . Vì em thấy ứng dụng cũng khá nhiều. em cảm ơn và chúc kênh của anh ngày càng phát triển ạ
Thanks em. Anh sẽ bố trí ra sớm nha!
Cho em hỏi là cái anh giải thích là quá trình train hay sử dụng mạng vậy ạ. Ví dụ em đã train đc ra file .h hoặc .pth thì đầu vào encoder của em là câu hỏi thì decoder lấy đâu ra câu trả lời có sẵn để masking ạ. Nó dự đoán ra cầu trả lời mà.
Em post lên facebook.com/groups/miaigroup để anh gửi thêm info cho tiện nhé! Trên này ko cho đính kèm gì :(
Hay quá anh ơi.
Cảm ơn em nha!
Fanpage: facebook.com/miaiblog
Group: facebook.com/groups/miaigroup
Website: miai.vn
UA-cam: bit.ly/miaiyoutube
Hay quá Anh, đúng cái đang cần :)
Thanks em . Giúp được em là vui nhất :D
Cảm ơn anh ạ
Welcome em nha!
dạ cho em hỏi video về bert ở đâu vậy ạ
Em tham khảo qua link này trước nhé : www.miai.vn/2020/12/29/bert-series-chuong-3-thu-nhan-dien-cam-xuc-van-ban-tieng-viet-voi-phobert-cach-1/
Thanks
Welcome bạn!
Mà từ start là từ khởi tạo lấy bất kì hay nó là từ gì z ạ
Anh chưa hiểu ý em. Em post lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup trao đổi cho tiện nhé!
a làm mô hình chatgpt đi ạ
Có luôn rồi em. ua-cam.com/video/GFkQlFJQFK0/v-deo.html
@ e hỏi cách chatgpt hoạt động chứ ko phải cách sử dụng ak
@@mykun8737 À cái đó thì anh chưa tìm hiểu. Đợi nhé!
Trời, nguyên phần sau em soạn chi tiết post lên cho anh bị anh xóa mất tiêu luôn rồi. Em correct anh phần multiheads anh hiểu sai mất tiêu rồi. Làm vậy những người sau làm theo sai hết trơn
A không xoá gì em nhé! Em cứ bình tĩnh.
hay lam nha
Yeah cảm ơn bạn nha :D
Anh cho e xin Slide được không ạ. Em không vào đc link Slide. Em cảm ơn a ạ
A đã sửa link rồi nhé. Thanks em!
anh ơi slide này mình còn không ạ , em ấn vào link nhưng không tìm thấy ạ
Em vào phần mô tả của video có link tải đó. nếu chưa biết cách tải từ link đó thì em xem video này: ua-cam.com/video/BTs2KU0E8dY/v-deo.html&embeds_referring_euri=https%3A%2F%2Fmiai.vn%2F&source_ve_path=OTY3MTQ&feature=emb_imp_woyt
anh ơi sao con bot của em kh gửi tin nhắn được vậy ạ?
Em post lên Group trao đổi, chia sẻ: facebook.com/groups/miaigroup kèm ảnh chụp xem nhé!
Anh ơi cho em xin slide với ạ! Link kia em down về là file exe
Ủa em tải link nào mà ra file exe?