Dù đã xuất hiện từ trước, nhưng chúng ta, hầu hết những người dùng đại chúng, gần như rất ít tiếp xúc với một công cụ nào dựa trên Deep Learning cho đến khi ChatGPT của OpenAI được phát hành vào cuối năm 2022. Deep Learning đã nổi lên như một lực lượng chuyển đổi trong lĩnh vực trí tuệ nhân tạo, làm thay đổi cách máy móc nhận thức và xử lý thông tin.
Trong bài viết này, VR360 sẽ đi sâu vào sự phức tạp của Deep Learning hay học sâu, làm sáng tỏ định nghĩa, khai thác những góc nhìn mới liên quan đến kỹ thuật.
Được biết đến là cha đẻ của Deep Learning, Geoffrey Hinton nhận định: "Deep Learning là một tập hợp con của Machine Learning, nơi mà các mô hình học từ dữ liệu thông qua các mạng nơ-ron nhiều lớp. Các hệ thống máy tính tự học và cải thiện khả năng của mình thông qua thuật toán mô phỏng cách hoạt động của não bộ con người".
Thuật ngữ "deep" đề cập đến việc sử dụng nhiều lớp mạng nơ-ron nhân tạo (Artificial Neural Networks - ANN) để phân tích, xử lý và hiểu dữ liệu. Các mạng nơ-ron ANN này mô phỏng cách các tế bào thần kinh trong não người hoạt động. Được xây dựng từ nhiều lớp liên kết chặt chẽ, với mỗi lớp đảm nhận một vai trò như phát hiện đặc trưng, nhận dạng mẫu, hoặc dự đoán kết quả. Số lượng lớp càng nhiều, hệ thống càng có khả năng xử lý dữ liệu phức tạp và đưa ra các dự đoán chính xác hơn.
Mặc dù ý tưởng về học sâu đã xuất hiện từ những năm 1960, nhưng do hạn chế về khả năng tính toán và dữ liệu, lĩnh vực này chỉ thực sự bùng nổ trong những năm gần đây nhờ sự phát triển của Big Data và tiến bộ trong phần cứng máy tính (GPU, TPU, FPGA). Các hệ thống Deep Learning hiện đại có thể học từ hàng triệu đến hàng tỷ điểm dữ liệu, giúp cải thiện hiệu suất mà không cần sự can thiệp trực tiếp của con người.
Perceptron (60s)
Frank Rosenblatt giới thiệu Perceptron vào năm 1957, một thuật toán học có giám sát giúp giải quyết bài toán phân lớp nhị phân.
Đây là một trong những nền tảng đầu tiên của Neural Network và Deep Learning.
MLP và Backpropagation ra đời (80s)
Geoffrey Hinton và cộng sự công bố bài báo “Learning representations by back-propagating errors”, giới thiệu Backpropagation.
Phương pháp này giúp huấn luyện Multi-Layer Perceptron (MLP) hiệu quả hơn, mở ra tiềm năng cho mạng nơ-ron sâu.
Mùa đông AI thứ hai (90s - đầu 2000s)
Sau giai đoạn "mùa đông AI" lần đầu vào cuối những năm 1970 đến đầu năm 1990 thì thuật ngữ lại lần nữa xuất hiện vào đầu những năm 2000. Đây là một thuật ngữ được sử dụng lần đầu tiên vào năm 1984 - đề cập đến khoảng cách giữa kỳ vọng của AI và những thiếu sót của công nghệ.
Vào giai đoạn này, Neural Network cũng gặp nhiều thách thức: Thiếu dữ liệu gán nhãn do máy ảnh số chưa phổ biến, giới hạn khả năng tính toán khiến việc huấn luyện mạng sâu không hiệu quả. Trong thời gian này, Support Vector Machine (SVM) trở nên phổ biến hơn.
Cái tên được làm mới – Deep Learning (2006)
Hinton giới thiệu Deep Belief Networks (DBN) và kỹ thuật unsupervised pretraining, giúp khắc phục vấn đề huấn luyện mạng sâu.
Thuật ngữ Deep Learning bắt đầu trở nên phổ biến
Đột phá (2012)
Tại cuộc thi ILSVRC 2012, nhóm của Alex Krizhevsky, Ilya Sutskever, và Geoffrey Hinton giới thiệu AlexNet, một Deep Convolutional Neural Network.
Mô hình đạt top 5 error rate chỉ 16%, vượt xa các phương pháp trước đó, đánh dấu kỷ nguyên bùng nổ của Deep Learning.
Có ba loại mạng nơ-ron nhân tạo được sử dụng trong deep learning
Có ba loại mạng nơ-ron nhân tạo được sử dụng trong học sâu:
Đây là dạng mạng đơn giản nhất, nơi dữ liệu chỉ di chuyển theo một hướng: từ đầu vào đến đầu ra, không có vòng lặp hay quay ngược lại. Điều đó có nghĩa là bạn có thể đưa dữ liệu vào mô hình, sau đó "huấn luyện" mô hình để dự đoán điều gì đó về các tập dữ liệu khác nhau.
FNN thường được sử dụng trong phát hiện gian lận tài chính, nhận diện chữ viết tay và phân loại dữ liệu.
Mô hình được huấn luyện với một tập dữ liệu có sẵn, chẳng hạn như các giao dịch đã được đánh dấu là hợp lệ hoặc gian lận. Khi có giao dịch mới, mạng sẽ phân tích các đặc điểm của nó và dự đoán xem đó có phải là gian lận hay không, giúp ngân hàng ngăn chặn rủi ro kịp thời.
CNN được thiết kế đặc biệt để xử lý dữ liệu hình ảnh, lấy cảm hứng từ cách bộ não con người nhận diện vật thể thông qua vỏ não thị giác.
CNN thường được nhận diện khuôn mặt, chẩn đoán bệnh từ ảnh y tế, phát hiện logo thương hiệu trên mạng xã hội, xe tự hành... Băng cách chia nhỏ hình ảnh thành nhiều điểm ảnh (pixels). Các lớp ẩn trong CNN tìm kiếm các đặc điểm quan trọng như cạnh, góc, hình dạng. Nếu một hình ảnh mới có các đặc điểm giống với dữ liệu đã học, mạng sẽ nhận diện được nó (ví dụ, phân biệt chữ "A" với chữ "B").
Không giống như FNN hay CNN, RNN có khả năng "nhớ" thông tin từ các bước trước đó nhờ cơ chế vòng lặp. Điều này giúp nó phân tích dữ liệu theo chuỗi, như văn bản, giọng nói hoặc chuỗi thời gian.
RNN thường được ứng dụng để dịch ngôn ngữ, nhận diện giọng nói, dự báo tài chính, chatbot AI... Không chỉ xử lý từng dữ liệu một cách riêng lẻ mà còn xem xét thông tin từ các bước trước đó để đưa ra dự đoán chính xác hơn.
Ví dụ, trong phát hiện gian lận tài chính, RNN không chỉ đánh giá một giao dịch đơn lẻ mà còn phân tích lịch sử chi tiêu của người dùng để phát hiện hành vi bất thường.
Deep Learning có nhiều ứng dụng khác nhau cho các hoạt động kinh doanh, bao gồm phân tích dữ liệu và tạo dự đoán. Đây cũng là một yếu tố quan trọng của khoa học dữ liệu. Do đó, cực kỳ có lợi cho các nhà khoa học dữ liệu được giao nhiệm vụ thu thập, phân tích và diễn giải lượng lớn dữ liệu bằng cách giúp quá trình này nhanh hơn và dễ dàng hơn đối với họ.
Deep Learning giúp xử lý lượng dữ liệu khổng lồ và phát hiện ra các mẫu phức tạp mà các phương pháp truyền thống khó nhận diện. Điều này đặc biệt hữu ích trong các ứng dụng như dự đoán xu hướng thị trường, phát hiện gian lận giao dịch trong tài chính, hay phân tích hình ảnh y tế để chẩn đoán bệnh sớm.
Các mô hình Deep Learning có thể tự động hóa các tác vụ phức tạp mà trước đây chỉ có con người mới làm được, giúp tiết kiệm thời gian và giảm chi phí.
Một ưu điểm quan trọng của Deep Learning là khả năng tự học từ dữ liệu mới và cải thiện theo thời gian, giúp hệ thống ngày càng thông minh hơn mà không cần lập trình lại.
Xem toàn bộ bài viết: https://vr360.com.vn/deep-learning-la-gi