☘️Báo cáo viên: TS. Nguyễn Hồng Bửu Long

- Thời gian tổ chức: 09:00 - 10:30, ngày 02/12/2023 (Thứ Bảy)

- Chủ đề: Transformer and Overview of Large Language Models (Transformer và tổng quan về các mô hình ngôn ngữ lớn)

Kiến trúc Transformer, giới thiệu vào năm 2017, là một sự phát triển quan trọng trong xử lý ngôn ngữ tự nhiên (NLP) và là cơ sở của các mô hình ngôn ngữ lớn (LLM). Đáng chú ý, các mô hình ngôn ngữ lớn như GPT (Generative Pre-trained Transformer) đã tận dụng sức mạnh của Transformer để đạt được những kết quả đáng kể trong việc hiểu và tạo ra văn bản giống con người. Những mô hình này, được huấn luyện trước trên các bộ dữ liệu lớn, đã cho thấy ứng dụng trong nhiều lĩnh vực khác nhau, từ việc hoàn thiện văn bản và dịch ngôn ngữ đến tóm tắt và trả lời câu hỏi. Trong buổi trình bày này, chúng ta sẽ tìm hiểu ảnh hưởng của kiến trúc Transformer đối với các mô hình ngôn ngữ lớn, phân tích các thành phần và cơ chế quan trọng, đồng thời thảo luận về ý nghĩa của LLM đối với các ứng dụng NLP.


☘️Các bạn sinh viên quan tâm có thể đăng ký qua link: https://forms.gle/g7gRmT6fKBq48vYG7 

- Địa điểm tổ chức: Phòng I.63 - Cơ sở 227 Nguyễn Văn Cừ, P4, Q5

- Số lượng: 15 sinh viên 

- Thời hạn đăng kí: Từ nay đến 15h00 Thứ Sáu, ngày 01/12/2023

*Lưu ý: Link đăng ký sẽ đóng sớm hơn khi đã đủ số lượng người tham dự


Thông tin người phụ trách: Nguyễn Trần Thục Uyên (Email: nttuyen@fit.hcmus.edu.vn)