Thông báo chung

Đăng ký tham dự Seminar Bộ môn Công nghệ Tri thức lần 2/2023

21-11-2023 09:15


1. Báo cáo viên: TS. Lê Thanh Tùng

- Thời gian tổ chức: 8h30 - 11h30, ngày 24/11/2023 (Thứ Sáu)

- Chủ đề:

a. Simple Contrastive Learning of Sentence Embeddings

Là phương pháp học biểu diễn câu đơn giản bằng phương pháp học đối lập. Mô hình này tập trung vào việc tạo ra các biểu diễn số hóa cho các câu văn trong không gian vector, mục tiêu là tạo ra các biểu diễn câu sao cho các cặp câu có ý nghĩa tương tự được gần nhau trong không gian vector, và các cặp câu có ý nghĩa khác biệt được xa nhau. Việc học đối lập nhằm tạo ra biểu diễn đối tượng khá phổ biến trong biểu diễn hình ảnh, tuy nhiên, với xử lý ngôn ngữ tự nhiên thì đây là nhóm bài toán khá thú vị. Bằng việc dựa trên các siêu tham số dropout, chủ đề đưa ra một hướng xem xét tiềm năng về việc tạo ra các mẫu đối lập trong xử lý ngôn ngữ tự nhiên.

b. DiffCSE: Difference-based Contrastive for Sentence Embeddings

Dựa trên những ý tưởng sơ khởi của học đối lập trong biểu diễn câu, chủ đề DiffCSE: Difference-based Contrastive Learning for Sentence Embeddings có thể được xem như phiên bản cải tiến dựa trên việc khai thác những mẫu nhạy cảm từ các mô hình ngôn ngữ. Bằng việc đưa ra những hàm mất mát đặc biệt, phương pháp hướng tới việc cân chỉnh ảnh hưởng của các mẫu nhạy cảm vào việc xây dựng biểu diễn câu, để từ đó tạo ra một phương pháp học không giám sát tiềm năng.


2. Báo cáo viên: ThS. Lê Phúc Lữ

- Thời gian tổ chức: 13h30 - 15h00, ngày 24/11/2023 (Thứ Sáu)

- Chủ đề: Deep Learning Techniques for Segmenting Breast Lesion Regions and Classifying Mammography Images (Kỹ thuật học sâu để phân đoạn các vùng tổn thương vú và phân loại hình ảnh chụp nhũ ảnh)

Ung thư vú hiện là một trong những nguyên nhân gây tử vong hàng đầu. Ở nhiều nước trên thế giới. Việc phát hiện sớm khối u ở vú có thể mang lại cơ hội sống sót cao hơn cho bệnh nhân, nhưng việc xác định và phân chia khối u lành tính hay ác tính luôn là một vấn đề đầy thách thức. Hiện tại, có các cách dùng kỹ thuật học sâu để giải quyết, chẳng hạn như U-Net, SegNet, Mask R-CNN, Convnet, ResNet,... và vẫn có các hạn chế nhất định. Trong nghiên cứu này, chúng tôi áp dụng mô hình khá mới là Segment Anything Model cùng EfficiencyNet B0 kết hợp với Focal Loss và Vision Transformer để phân đoạn hình ảnh, từ đó phân loại hình ảnh vú (lành tính/ác tính). Qua thực nghiệm trên bộ dữ liệu CIBS-DDSM cho thấy cách tiếp cận có độ chính xác cao và hứa hẹn có thể hỗ trợ bác sĩ đưa ra các chẩn đoán chính xác, hiệu quả hơn.


Các bạn sinh viên quan tâm có thể đăng ký qua link: https://forms.gle/9ouUNXPFE2Z3jh789 

- Địa điểm tổ chức: Phòng I.63 - Cơ sở 227 Nguyễn Văn Cừ, P4, Q5

- Số lượng: 15 sinh viên / 1 buổi

- Thời hạn đăng kí: Từ nay đến 15h00 Thứ Năm, ngày 23/11/2023

*Lưu ý: Link đăng ký sẽ đóng sớm hơn khi đã đủ số lượng người tham dự


Thông tin người phụ trách: Nguyễn Trần Thục Uyên (Email: nttuyen@fit.hcmus.edu.vn)

Các tin liên quan