03/09/2017
Mười cột mốc của trí tuệ nhân tạo
https://www.lesechos.fr/…/intelligence-artificiel…/index.php
1/10 - 1950 : Alan Turing đề xuất trí tuệ nhân tạo
LAURA BERNY
Alan Turing, nổi tiếng với thành tích phá được mật mã Enigma của Đức quốc xã, đã cố gắng chứng minh rằng một ngày nào đó máy móc cũng có thể suy nghĩ.
Máy móc tạo ra bởi con người có thể trở nên thông minh? Trong khi vấn đề này đã được đề cập từ xưa trong truyền thuyết như Golem, hay bởi các tác giả khoa học viễn tưởng, Alan Turing, nhà toán học thiên tài người Anh, đã xem xét nó một cách nghiêm túc trong một tạp chí khoa học. Tháng 10/1950, ông ta viết trên tạp chí “Mind” bài báo nổi tiếng nhất của ông với tiêu đề “Máy tính và sự thông minh”.
Ông đặt câu hỏi một cách thẳng thắn: “Liệu máy móc có thể suy nghĩ?” và khẳng định là có thể, bằng cách dùng “trò chơi bắt chước” (máy móc có thể lừa con người khi trả lời một bảng các câu hỏi). Turing dự đoán rằng: “Tôi nghĩ trong vòng 50 năm tới, ta có thể lập trình cho máy tính với khả năng lưu trữ 10 mũ 9 và cho phép nó chơi trò bắt chước thành thạo đến mức, sau 5 phút hỏi, một người đối thoại bình thường không có hơn 70% cơ hội phát hiện được”.
Người đưa ra dự đoán trên đã hình dung rõ ràng về máy tính. Đơn độc và không chịu bó buộc theo khuôn khổ, Alan Turing là một nhà logic học thuần túy. Lĩnh vực ưa thích của ông ở King's College tại Cambridge, nơi ông đã học đại học và trở thành giáo sư, là lý thuyết về khả năng tính toán. Từ năm 1936, trong bài báo đầu tiên, ông viết: “Theo định nghĩa của tôi, một số được gọi là tính được nếu có một cái máy có thể biểu diễn được các chữ số thập phân của số đó”. David Leavitt viết trong cuốn “Alan Turing” rằng sự khẳng định này đã “phá vỡ các nguyên tắc chính thống tương đối cứng nhắc”. Thời đó chưa có các máy tính như vậy, mà chỉ là các máy tính hết sức thô sơ và không lập trình được.
Trong bài báo trên, nhà khoa học trẻ thiên tài đã mô tả sự hoạt động của máy này bằng cách phân tích từng bước của phép toán. Nhưng ông ta không dừng lại ở đó: ông ta còn hình dung đến một máy tính “phổ quát”, có thể bắt chước hành vi của bất kì máy nào khác giống như vậy, bất kể giải thuật của nó như thế nào đi nữa; các lệnh được lưu trữ “ở đâu đó” trong máy, nhưng có thể được lấy ra và trao đổi. “Máy Turing” trở thành hình mẫu của máy tính hiện đại, với phần cứng và phần mềm tách biệt nhau, đúng như ông đã dự đoán.
Chiến tranh đã khiến ông tạm quên đi mục tiêu này. Tham gia vào Bletchley Park, Trường mật mã quốc gia, từ năm 1939, cùng với một nhóm các nhà khoa học, ông tập trung vào giải mã các bức điện của tàu ngầm Đức, được mã hóa bởi máy Enigma. Công việc giải mã này được thực hiện với sự trợ giúp của một máy khác có tên là “Bombe”, đây là một khối dây cáp chằng chịt, dài và cao 2 mét. Từ năm 1942, những bức điện của Đức đã được giải mã một cách kịp thời – thành tựu này được giữ kín trong một thời gian dài. Trở về với lĩnh vực dân sự, Turing tập trung vào dự án tạo ra một máy tính không chỉ “phổ quát”, mà còn có khả năng “hiểu” được các lệnh, nhầm lẫn và “học được từ kinh nghiệm”. Một cách ngắn gọn, đó là một bộ não điện tử. “Khi ta tạo ra được một máy tính như vậy, tôi nghĩ rằng ta phải thừa nhận sự thông minh của máy móc”, Alan Turing tuyên bố như vậy trước Hội Toán học London vào tháng 2/1947. Tuy nhiên, máy tính tự động này của ông (ACE – automatic computing engine) chỉ dừng ở bước đầu do thiếu sự hỗ trợ của cộng đồng.
Nhưng điều đó không làm ông nản lòng trong việc theo đuổi ý tưởng của mình, mà ba năm sau ông đã mô tả một cách chi tiết trong bài báo nổi tiếng trên tạp chí “Mind”. Trong khi ông thừa nhận máy tính còn vô số khó khăn – như “cảm nhận vị ngon của quả dâu trộn kem” –, Turing đã phản bác, mà không thiếu sự hài hước, những chỉ trích theo trường phái duy ngã (chỉ suy nghĩ của mỗi người là thực sự tồn tại): “Cách duy nhất để biết chắc chắn máy tính có thể suy nghĩ là phải trở thành một máy tính và tự cảm nhận được sự suy nghĩ của nó. Tương tự, cách duy nhất để biết một người suy nghĩ là biến thành người đó… Thay vì tiếp tục tranh cãi không dứt về vấn đề này, ta quy ước rằng tất cả mọi người đều suy nghĩ”.
Đối với Alan Turing, bằng chứng cuối cùng về sự thông minh nằm ở khả năng lập luận, và mục tiêu cuối cùng là xây dựng “máy tính có thể cạnh tranh với con người trong những lĩnh vực thuần tri thức”. Trong khi ông ta mang lại cảm hứng cho tất cả những người đi tiên phong trong lĩnh vực trí tuệ nhân tạo, Alan Turing không có dịp nhìn thấy sự ra đời của lĩnh vực mới này vào năm 1956 tại Dartmouth (Mỹ). Là nạn nhân của sự chống đối đối với người đồng tính tại Anh, năm 1952, ông ta bị cáo buộc là có “những hành động thiếu đứng đắn nghiêm trọng” và phải chịu sự điều trị hoc-môn thay cho ở tù. Cảm thấy bị sỉ nhục, ông đã tự tử ngày 7/6/1954, khi chưa đầy 42 tuổi. Mãi đến năm 2009, Thủ tướng Gordon Brown mới đưa ra lời xin lỗi về cách “xử lý kinh khủng” đã xảy ra với ông. Năm 2012, nhân kỉ niệm một 100 năm ngày sinh, Hoàng gia Anh cuối cùng đã phục hồi trọn vẹn danh tiếng cho ông.
2/10 - 1956 : trí tuệ nhân tạo trở thành một ngành khoa học
JACQUES HENNO
Mùa hè năm 1956, hai mươi nhà nghiên cứu gặp nhau tại một hội thảo ở trường đại học Dartmouth (Hoa Kì), kết quả của cuộc hội thảo sẽ ảnh hưởng đến tất cả công trình nghiên cứu của ngành khoa học mới mẻ này.
Với kinh phí 7500 đô la vào thời điểm đó (khoảng 58000 euros bây giờ), được tài trợ bởi quỹ Rockefeller, và một cử tọa chừng 20 người, hội thảo ở Dartmouth năm 1956 về trí tuệ nhân tạo có thể xem là một trong những hội thảo có chi phí đắt nhất lịch sử - nhất là khi chỉ có sáu nhà nghiên cứu tham gia đầy đủ tất cả các buổi thảo luận. Tuy nhiên, hội thảo này đã đánh dấu sự ra đời của một ngành khoa học mới: trí tuệ nhân tạo.
“Nó đã tạo ra một lĩnh vực mới và chỉ ra một vài hướng nghiên cứu như mạng neuron, học tự động và khả năng sáng tạo”, theo giải thích của giáo sư Jean-Gabriel Ganascia thuộc đại học Pierre-et-Marie-Curie (Paris-VI), nghiên cứu về trí tuệ nhân tạo và đồng thời là chủ tịch ủy ban đạo đức của CNRS.
Trên thực tế, hội thảo tại Dartmouth College, một đại học tư của New Hampshire ở miền đông bắc nước Mỹ, từ ngày 18/6 đến 17/8, quy tụ 20 nhân vật đại diện cho các luồng suy nghĩ gần nhau, nhưng thỉnh thoảng cũng xung đột, trong các lĩnh vực đang hết sức sôi động mà cần phải được hệ thống hóa: điều khiển học (cybernetique, nghiên cứu về truyền thông và điều khiển trong các hệ thống tự nhiên và nhân tạo), xử lý thông tin, mạng neuron hình thức (mô phỏng hoạt động của bộ não), lý thuyết automat, mô hình ra quyết định…
“Vào giữa những năm 1950, chủ đề trí tuệ nhân tạo đã đủ chín mùi để trở thành một chương trình nghiên cứu thật sự, đủ sức tập hợp các nhà khoa học trẻ và thu hút được tài chính”, Pierre Mounier-Kuhn tổng kết lại (Pierre Mounier-Kuhn là nhà nghiên cứu ở CNRS và đại học Paris Sorbonne, đồng tác giả cuốn “Histoire illustrée de l'informatique”).
Lí lịch của sáu nhà nghiên cứu tham gia đầy đủ tất cả các buổi của hội thảo trên thể hiện lĩnh vực tri thức phong phú. Ta thấy có Julian Bigelow, tốt nghiệp MIT và từng làm việc với Norbert Wiener – cha đẻ của điều khiển học – trước khi tham gia vào việc phát triển một trong những máy tính đầu tiên tại đại học Princeton. Còn có John Holland, chuyên gia về các hệ thống thích nghi phức tạp, Donald MacCrimmon, người Anh duy nhất trong nhóm và là chuyên gia về lí thuyết thông tin và tổ chức bộ não, hay Ray Solomonoff, người đi tiên phong về xác suất và học tự động. Và tất nhiên là không thể không nhắc đến hai người khởi xướng hội thảo Dartmouth là John McCarthy và Marvin Minsky.
Có năng khiếu đặc biệt về toán, John McCarthy nhận bằng tiến sĩ tại đại học Princeton trước khi tập trung nghiên cứu về cách thức tốt nhất để tập một hành vi thông minh, trước hết cho “máy Turing” (thật ra không phải là máy mà là mô hình trừu tượng về máy tính), sau đó cho máy tính. Suốt năm học 1955-1956, trong khi dạy ở Dartmouth College, ông ta lên chương trình về cuộc hội thảo sắp đến, trong đó lần đầu tiên xuất hiện thuật ngữ “trí tuệ nhân tạo”.
Marvin Minsky trước đây học ở đại học Harvard và đam mê về máy có khả năng học – một đam mê khác của ông là sự đông lạnh cơ thể và sau khi chết vào tháng 1/2016, cơ thể ông được lưu giữ và có thể “sống lại” vào năm 2045. Ông quen với John McCarthy khi làm tiến sĩ toán ở Princeton. Năm 1951, cùng với một sinh viên khác của Princeton, ông tạo ra máy neuron đầu tiên, có tên là SNARC, đây là một mạng gồm 40 neuron nhân tạo mô phỏng não của chuột.
Công trình này nhận được sự hỗ trợ 2000 đô la (ứng với 16000 euro bây giờ) từ quân đội Hoa Kì. “Chúng ta đang ở giữa thời kì chiến tranh lạnh và có một nhu cầu rất lớn về dịch tự động và xử lý hồ sơ, Pierre Mounier-Kuhn nhớ lại. Lĩnh vực quân sự luôn tài trợ cho các nghiên cứu về trí tuệ nhân tạo. Ta cũng không quên rằng trong tiếng Anh, intelligence vừa có nghĩa là hiểu biết vừa có nghĩa là tình báo…”
Tại Dartmouth, McCarthy và Minsky tạo ra một cộng đồng nhỏ các nhà khoa học và làm cho các công trình của họ được biết đến rộng rãi và có nhiều ảnh hưởng hơn. Từ năm 1959, tại Hội thảo về xử lý thông tin (International Conference on Information Processing) tổ chức ở Paris quy tụ một ngàn nhà nghiên cứu về lĩnh vực thông tin, chương trình nghiên cứu tại Dartmouth đã lan tỏa đến toàn châu Âu.
3/10 - 1957 : Perceptron, máy có khả năng học đầu tiên
JACQUES HENNO
Trong những năm 50, nhà tâm lý học người Mỹ Frank Rosenblatt mô phỏng trên máy tính khả năng học của máy.
Một con chuột học cách di chuyển trong một mê cung để tìm thức ăn: đây chính là bài toán được mô phỏng bởi SNARC, chiếc máy neuron đầu tiên (hay mạng neuron hình thức) được tạo ra ở đại học Harvard, miền đông nước Mỹ vào năm 1951 do hai nghiên cứu sinh ngành toán, Marvin Minsky và Dean Edmonds.
Với trang thiết bị tái sử dụng, hai ông tạo ra 40 neuron nhân tạo, kích hoạt ngẫu nhiên, mỗi neuron ứng với một vị trí của chuột trong mê cung. Một xung điện được truyền đến các neuron khác để biểu diễn các hướng di chuyển có thể có của chuột (như sang phải, trái, trước, sau…)
Marvin Minsky thực hiện luận án tiến sĩ về SNARC (« Spatial Numerical Association of Response Code ») lại cho rằng những mạng neuron kiểu này không thật sự hứa hẹn. Sáu năm sau, một nhà tâm lý học người Mỹ, Frank Rosenblatt, và mô hình Perceptron của ông ấy đã cho thấy Minsky nhầm lẫn. Ngày nay, deep learning, nhờ vào những công trình nghiên cứu của nhiều người, trong đó có Yann LeCun (Facebook), có vẻ đã khẳng định những ưu điểm của mạng neuron.
“Mạng neuron hình thức bắt đầu với những công trình được công bố vào năm 1943 bởi hai người Mỹ, Warren McCulloch, sinh lý học thần kinh, và Walter Pitts, logic học, về sự hoạt động của bộ não. Theo hai ông, neuron chính là nguồn gốc của tất cả các hoạt động logic”, Bertrand Braunschweig, giám đốc trung tâm nghiên cứu Inria-Saclay và phụ trách cuốn sách trắng về trí tuệ nhân tạo do Inria xuất bản tháng 9/2016, giải thích.
Họ đã đề xuất một mô hình neuron nhân tạo đơn giản, còn có tên là neuron hình thức: một neuron nhị phân phát một tín hiệu (ứng với đầu ra là 1) và không phát (ứng với đầu ra là 0). Để ra quyết định đó, nó tính tổng các dữ liệu (0 hoặc 1) nhận được từ các neuron mà nó có liên kết. Cách mô phỏng bộ não hết sức đơn giản này lại thể hiện được những ưu điểm lớn lao khi cho phép thực hiện phép toán logic nhờ vào các mối liên kết.
Marvin Minsky và Dean Edmonds, cùng với máy SNARC, là những người đầu tiên cố gắng hiện thực hóa lý thuyết về mạng neuron hình thức, nhưng chính một nhà tâm lý học lại mang đến những đóng góp quyết định vào năm 1957. Máy Perceptron của Frank Rosenblatt ban đầu chỉ là sự mô phỏng trên máy IBM 704. Nó chứa một lớp neuron nằm giữa các đơn vị cảm biến và các đơn vị kích hoạt.
Để nhận dạng một kí tự, các tế bào quang điện gửi một tín hiệu tùy theo lượng ánh sáng nhận được; các neuron ra quyết định và gửi (hoặc không gửi) tín hiệu đến các đèn ứng với kí tự nhận dạng. Nếu đèn sáng trong khi thật sự nó không phải như vậy, trọng số của các liên kết giữa tế bào quang điện – neuron sẽ giảm đi; nếu đèn không sáng trong khi đúng ra nó phải sáng, trọng số này sẽ tăng lên. Nếu đèn sáng một cách phù hợp, ta không thay đổi gì cả.
“Với Perceptron, Frank Rosenblatt đã xây dựng được mô hình logic đầu tiên thể hiện cơ chế học”, François Blayo giải thích (ông là đồng tác giả với Michel Verleysen của cuốn “Que sais-je ?” về mạng neuron nhân tạo). Năm 1969, trong cuốn “Perceptrons”, viết cùng với Seymour Papert, một người đi tiên phong khác trong lĩnh vực trí tuệ nhân tạo, Marvin Minsky chứng minh về mặt toán học rằng phát minh của Rosenblatt không có thể học được tất cả. Nguồn đầu tư dồi dào trước đó dành cho nhánh trí tuệ nhân tạo này bỗng trở nên khan hiếm.
Mãi đến hai mươi năm sau, ta mới thấy mạng neuron xuất hiện trở lại với mạng Perceptron nhiều lớp, cùng với một kĩ thuật huấn luyện mới là lan truyền ngược gradient. Xuất phát từ luận án tiến sĩ năm 1974 tại Harvard của Paul Werbos, nhà toán học và kinh tế học, và được củng cố bởi các công trình đồng xuất bản bởi hai người Mỹ (David E. Rumelhart và Ronald J. Williams) và một người Canada (Geoffrey E. Hinton), cùng với những biến thể trong luận án tiến sĩ năm 1987 của một người Pháp (Yann LeCun, bây giờ là giám đốc phòng thí nghiệm trí tuệ nhân tạo của Facebook), phương pháp lan truyền ngược cho phép hiệu chỉnh mạnh đối với những liên kết tạo ra sai số lớn, và hiệu chỉnh nhỏ đối với những sai số không đáng kể. Ngày nay, các hệ thống deep learning (bao gồm nhiều lớp neuron nhân tạo) vẫn dựa trên những lý thuyết này.
4/10 - 1968 : với Kubrick, trí tuệ nhân tạo trở thành ngôi sao điện ảnh
JACQUES HENNO
Máy tính HAL, trong “2001 Odyssée không gian”, đưa công chúng đến với trí tuệ nhân tạo. Những câu hỏi đặt ra trong bộ phim này vẫn còn nguyên tính thời sự.
Thật khó mà tóm tắt trong vài dòng bộ phim nổi bật “2001 Odyssée không gian” của Stanley Kubrick, lấy cảm hứng từ tiểu thuyết “La Sentinelle” của Arthur C. Clarke. Nhờ có viên đá đen, một bộ tộc vượn phương Nam đã phát minh ra công cụ đầu tiên, một loại vũ khí, giúp họ sống sót được sau khi loại bỏ một nhóm đối thủ cạnh tranh…Năm 2001, một tàu không gian được gửi đến sao Mộc, theo hướng của sóng điện từ được phát ra từ một hòn đá khác được chôn kín trên Mặt Trăng. Hai phi hành gia được hỗ trợ bởi một máy tính, có tên là HAL (tức IBM, sau khi làm lệch đi một kí tự). Nhưng máy tính này nghĩ rằng những phi hành gia làm hỏng kế hoạch, nên tìm cách loại trừ họ. Một người bị chết, người kia sống sót nhờ một hành động dũng cảm và …bất thường, khi chợt nghĩ đến bản chất con người, bằng cách ngắt trí tuệ nhân tạo.
Jean-Gabriel Ganascia, giáo sư đại học Pierre-et- Marie-Curie (Paris 6), nhà nghiên cứu về trí tuệ nhân tạo và chủ tịch ủy ban đạo đức của CNRS, cho biết “Bộ phim này nói về bản chất con người, công nghệ và sự tiến hóa. Ban đầu, người-vượn sống dựa vào thiên nhiên và tự quyết định được số phận của mình khi tạo ra công cụ đầu tiên. Nhưng khi đạt đến trình độ kĩ thuật rất cao, họ phát triển những công nghệ về trí tuệ nhân tạo mà có thể hoạt động độc lập và khiến họ rời xa thiên nhiên.”
Một cách ngắn gọn, bộ phim thành công vang dội này, ra đời cách đây gần năm mươi năm, vẫn không hề lỗi thời. “Tương lai được tưởng tượng một cách sinh động chắc chắn là điểm thú vị nhất của bộ phim này, mà nó được dựa trên một cách tiếp cận khoa học hơn là khoa học viễn tưởng”, như Yvonne Baby, nhà phê bình điện ảnh đã viết trên “LeMonde” tháng 10/1968.
Những lo lắng gây ra bởi trí tuệ nhân tạo trước chuyến đi cuối cùng (chuyến đi đến sao Mộc) phản ánh chính xác những gì mà chúng ta mường tượng trước đây và hôm nay: một dạng trí tuệ nhân tạo giống người, có khả năng điều khiển và hủy diệt con người, đây cũng là biểu tượng của sự nổi loạn điên khùng của loài người.
“Một cái máy có khả năng hiểu được ngôn ngữ con người, tự tìm kiếm thông tin và giao tiếp với con người bằng ngôn ngữ riêng của nó, là những gì mà các chuyên gia đã nghiên cứu thời đó: bộ phim đã phổ biến cái nhìn đó về trí tuệ nhân tạo đến tất cả công chúng”, Bertrand Braunschweig, giám đốc trung tâm nghiên cứu Inria Saclay - Ile-de-France và phụ trách cuốn sách trắng mà INRIA công bố về trí tuệ nhân tạo tháng 9/2016, cho biết chi tiết.
HAL đủ độc lập để tự ra quyết định: nó theo dõi hai phi hành gia và có ý tưởng đọc từ môi để biết các ý đồ họ đang dự định. “Ngày nay, chúng ta vẫn còn cách hàng chục năm trước khi đạt đến một trí tuệ nhân tạo tổng quát như vậy: ta mới chỉ xây dựng được những trí thông minh cụ thể”, Bertrand Braunschweig nói thêm.
Mặc dù những nguy cơ sinh ra từ việc phát triển kĩ thuật có đôi chút thổi phồng vào thời chiến tranh lạnh và hiểm họa hạt nhân, khả năng về một trí tuệ siêu việt hơn được tạo ra từ chính bàn tay con người vẫn tiếp tục gây ra lo lắng. Jean-Gabriel Ganascia cho rằng “Trí tuệ nhân tạo khiến chúng ta không thể không nhắc lại Golem, một đối tượng nhân tạo, giống người, làm từ đất sét gắn liền với Prague bí hiểm vào thế kỉ thứ 16. Golem có tính cách không rõ ràng: nó vừa muốn đến gần với Chúa trời, nhưng đồng thời cũng thể hiện sự nổi loạn và trở nên tồi tệ…”
Nếu như máy móc nhân tạo có cảm xúc không phải là vấn đề mới (ý tưởng này đã xuất hiện trong cuốn “L'Ève future” của Auguste de Villiers de L'Isle-Adam xuất bản năm 1886), bộ phim của Kubrick đã đưa đến cực điểm về tính không rõ ràng của các đối tượng nhân tạo. HAL “thật sự là một con robot quậy phá rồi trở thành điên loạn”, như New York Times đã viết khi bộ phim ra mắt. Như Jean-Michel Bertrand, giáo sư lịch sử nghệ thuật, lưu ý trong cuốn sách của ông “2001, Odyssée không gian. Sức mạnh của sự bí ẩn”, HAL có vẻ thử trí thông minh của một phi hành gia vào lúc cuối của một ván cờ vua: nó thực hiện một nước đi lỗi trước khi chiếu tướng.
Đỉnh cao của sự mưu mẹo là khi máy tính tỏ ra hết sức thành thật khi thông báo rằng một máy tính giống nó, còn ở mặt đất, không xác nhận lỗi mà nó đã xác định và việc sửa lỗi này sẽ dẫn đến phải giết một trong hai phi hành gia. Cuối cùng, máy tính cầu khẩn sự thương xót khi phi hành gia sống sót ngắt trí tuệ nhân tạo. Có lẽ đây là một trong những cảnh hấp dẫn nhất của bộ phim.
5/10 - 1973 : lần “ngủ đông” đầu tiên của trí tuệ nhân tạo
FLORIAN DEBES
Trong một cuộc tranh luận tại đài BBC, một nhà toán học đã đưa ra những quan điểm nghi ngờ về trí tuệ nhân tạo. Hệ quả: các nguồn hỗ trợ tài chính đột ngột dừng lại.
Có một giai đoạn trong sự phát triển của trí tuệ nhân tạo nhắc chúng ta rằng những hâm mộ cuồng nhiệt ngày nay đối với trí tuệ nhân tạo có thể không kéo dài. Ngày 30/8/1973, tại Anh, những bộ óc xuất chúng nhất trong lĩnh vực này tham gia một chương trình truyền hình được phát sóng vào giờ vàng. Nhưng bữa tiệc bị phá hủy. Trước ống kính của BBC, những chỉ trích của nhà toán học Anh, Ngài James Lighthill, đã giáng những đòn chí mạng. Buổi truyền hình, cùng với bản báo cáo trước đó vài tháng của nhà khoa học này, đã dẫn đến việc cắt giảm kinh phí dành cho ngành trí tuệ nhân tạo, dù đến lúc đó đang có rất nhiều hứa hẹn.
Với tên gọi “Controversy”, chương trình của đài BBC giới thiệu ý kiến của các chuyên gia. John McCarthy, giáo sư ở đại học Stanford và là người phát minh ra thuật ngữ “trí tuệ nhân tạo”, và Donald Michie, giáo sư ở đại học Edimburg, giới thiệu những robot mới nhất, có khả năng nhận dạng đồ vật và điều chỉnh hành vi để đẩy lùi các vật cản. Đối với hai ông, đây chỉ mới là bước đầu, một ngày nào đó máy tính sẽ thông minh như con người.
Không cảm thấy ấn tượng, James Lighthill cho rằng không thể xây dựng được những hệ thống thông minh hơn những robot thực hiện những việc cụ thể như vậy. “Robot đa chức năng là một sự ảo tưởng”, ông nhấn mạnh trong phòng hội thảo ở Royal Institution. Cuộc thảo luận vẫn tiếp tục, nhưng những khác biệt về quan điểm là không thể dung hòa.
Trong báo cáo, James Lighthill cho rằng từ hai thập kỉ, trí tuệ nhân tạo không tạo ra được những ảnh hưởng lớn nào. Không phải là chuyên gia trong lĩnh vực này, nhà toán học đã đọc và phỏng vấn những nhà nghiên cứu nổi tiếng nhất. Trong suốt báo cáo, ông không che giấu sự thất vọng. Dù đã có những khoản đầu tư lớn, cho đến năm 1973 không một hệ thống trí tuệ nhân tạo nào có thể đọc được văn bản. Nhận dạng tiếng nói thì chỉ hoạt động được nếu … thứ tự các từ đã được xác định trước trong máy tính.
“Sinh viên ngành trí tuệ nhân tạo thường nói rằng không thể hi vọng từ đây đến cuối thế kỉ 20 có thể phát triển được một hệ thống tổng quát có khả năng xử lý một lượng thông tin lớn”, James Lighthill viết như vậy, khi ông đề cập đến thách thức về số lượng tổ hợp quá lớn. Vấn đề này khiến cho bài toán có quá nhiều biến sẽ không có lời giải về mặt toán học. Ông cũng lưu ý rằng, những hệ thống ít phức tạp hơn hệ thống trí tuệ nhân tạo đã được triển khai ở phạm vi rộng, như hệ thống lái tự động của máy bay.
Hết sức thất vọng về cơ hội thành công của các nhà nghiên cứu trí tuệ nhân tạo, James Lighthill đưa ra những lí lẽ để chính phủ cắt ngân sách dành cho các nhà thông thái lãng mạn này. Nhất là khi đang trong thời khủng hoảng kinh tế… Vài năm trước đó, Arpa, cơ quan thực hiện các dự án nghiên cứu cao cấp được tài trợ bởi quân đội Hoa Kì, cũng đã lên tiếng. Chính sách mới không tài trợ cho các dự án phi quân sự, trong đó có nhiều dự án trí tuệ nhân tạo còn đang chập chững. Do nguồn tài chính giảm mạnh, nghiên cứu về trí tuệ nhân tạo bước vào giai đoạn “ngủ đông”.
Phải đợi đến những năm 1980, những người ủng hộ trí tuệ nhân tạo mới tìm thấy lại niềm hi vọng. Các hệ chuyên gia – đây là những máy tính cho phép thực hiện những suy luận của chuyên gia trong một lĩnh vực, từ cấu hình mạng đến địa chất – đã giúp đỡ các công ty trong việc ra quyết định. Cảm giác được những lợi ích, các nhà đầu tư tư nhân nhảy vào lĩnh vực này. Nhưng lần “ngủ đông” thứ hai của trí tuệ nhân tạo đã âm ỉ.
Nhưng hệ chuyên gia cũng cho thấy rất tốn kém. Để học được những kiến thức mới của con người phải cần quá nhiều thời gian. Bertrand Braunschweig nhớ lại, “sự mơ hồ lại một lần nữa kéo đến vào đầu những năm 1990. Trí tuệ nhân tạo đột ngột được đặt tên lại là tin học cao cấp”. Trí tuệ nhân tạo vẫn được tiếp tục nghiên cứu, nhưng lặng lẽ và nhỏ hẹp. “Rồi Web đã thay đổi tất cả”, Bertrand Braunschweig nhấn mạnh.
Vào cuối những năm 1990, mùa xuân trở lại với trí tuệ nhân tạo. Web cung cấp dữ liệu cho các giải thuật trí tuệ nhân tạo, nhất là với các mạng neuron mới khi nó giải quyết được vấn đề về số lượng tổ hợp quá lớn. Năm 2011, chương trình Watson của IBM đã thắng trò chơi truyền hình “Jeopardy!”. Các công ty lớn về Internet, từ Google đến Facebook, đầu tư mạnh vào những công nghệ mới của trí tuệ nhân tạo. Bertrand Braunschweig dự báo: “Giới hạn tiếp theo có lẽ không phải thuộc về vấn đề công nghệ, mà liên quan đến việc xã hội có sẵn sàng chấp nhận trí tuệ nhân tạo khi nó đặt ra những vấn đề về việc làm và sự riêng tư”.
6/10 - 1997 : Kasparov thất bại trước Deep Blue
PAUL MOLGA
Trong vòng 19 nước, kì thủ cờ vua xuất sắc nhất thế giới đã thúc thủ trước máy tính,… một phần nhờ vào một lỗi máy tính. Con người vừa bị chiếu tướng và thất bại.
Kasparov kinh ngạc, mắt gắn chặt vào bàn cờ. Vài giây trôi qua, Kasparov đứng dậy, dáng vẻ thất bại. Trong trận đấu, khán giả thấy ông vỗ trán, ôm đầu… Deep Blue, máy tính của IBM, vừa hạ kì thủ bảy lần vô địch thế giới trong vòng 19 nước. Ngày 11/5/1997, thế giới giật mình: nhà vô địch thế giới Kasparov đã thất bại trước máy tính.
Vài năm trước đó, trận đấu đầu tiên giữa thần đồng cờ vua và trí tuệ nhân tạo diễn ra tại New York. Gary Kasparov giành chiến thắng trước Deep Thought 2, và hết sức tự tin trước báo chí : “Máy tính không bao giờ mạnh hơn con người”. Nhưng 5 năm sau đó, IBM đã có những tiến bộ đáng kể. Siêu máy tính Deep Blue có sức mạnh công nghệ tuyệt vời: nó tính toán theo cách mà trước đây không có được, so sánh và chọn ra nước đi tối ưu nhất.
Bộ nhớ của Deep Blue chứa 600 000 ván cờ của những kì thủ xuất sắc nhất trong lịch sử cờ vua, kể cả Kasparov, và 256 vi xử lý có thể phân tích 200 triệu vị trí mỗi giây, tức là có thể đến 100 tỉ tình huống cho mỗi nước đi. Nhưng vậy cũng chưa thể dự đoán hết tất cả, khi mà cờ vua có đến 10 mũ 128 vị trí có thể có (con số bao gồm số 1 và 128 số 0 sau đó). Tuy nhiên, với khả năng đó, máy tính đã có thể tính trước được ít nhất là 7 nước.
Trong lần gặp đầu tiên với Deep Blue vào tháng 2/1996 tại Philadelphie, Kasparov thất bại ở ván đầu, nhưng sau đó thắng 4-2 chung cuộc. Trận đấu đã không hề dễ dàng với nhà vô địch người Nga, và khiến ông phải áp dụng những chiến thuật mới và mạo hiểm. Một năm sau đó, trận đấu lượt về tại New York, IBM và Kasparov đều hiểu được ý nghĩa quan trọng của lần gặp gỡ này. Kasparov đã tích cực tập luyện như đang chuẩn bị cho giải vô địch thế giới. Ông ta có vẻ căng thẳng nhưng đã sẵn sàng. Ở độ tuổi 32, trận đấu này có thể sẽ lưu danh cho sự nghiệp vẻ vang của ông.
Đối mặt với nhà vô địch, các kĩ sư của IBM cũng chuẩn bị kĩ càng cho kì thủ bằng silicium của họ, và đặc biệt tăng khả năng tính toán lên gấp đôi. Trận đấu mở màn diễn ra một cách bình thường và Kasparov vẫn vững vàng. Nhưng một nước đi bất thường đã làm ông rối loạn. Máy tính vừa thí một tốt mà không có lí do rõ ràng. “Đó là một nước đi được tính hết sức kĩ lưỡng, một nước phòng ngự nhằm ngăn chặn mọi khả năng tấn công của đối thủ, và điều này làm Gary bối rối”, nhà vô địch cờ vua Yasser Seirawan phân tích trên “Wired” năm 2001. Máy tính vừa gây áp lực tâm lý lên Kasparov. Nhưng đó chỉ là sự thổi phồng! Bởi ngày hôm nay, ta đã biết rằng nước đi kì lạ đó là kết quả của lỗi máy tính, như nhà thống kê người Mỹ Nate Silver tiết lộ trong cuốn “Le Signal et le Bruit” năm 2012: do thông thể tìm được vị trí tốt nhất, Deep Blue đã đi ngẫu nhiên, và khiến nhà vô địch nghĩ rằng nước đi này nằm trong chiến lược nào đấy.
Kasparov thắng ván này, nhưng với cách đánh không theo truyền thống. Ván thứ hai trở nên tệ hại hơn với Kasparov. Ở nước thứ 45, vua của Kasparov bị vây, ông mất quân và chấp nhận thua, dù rằng đã có thể kiếm được trận hòa. Ba ván tiếp theo, máy tính chiến thắng. Con người đã thất bại trước máy tính. Khán giả vỗ tay, kinh ngạc. Kì thủ người Nga không tin những gì đã xảy ra. Trước báo chí, ông nói : “Tôi nghĩ bây giờ là thời điểm Deep Blue có thể chơi cờ thật sự, và nếu nó chơi thường xuyên, tôi đảm bảo là tôi sẽ giành chiến thắng”. Nhưng sau đó không có gì xảy ra. Năm 2002, nhà vô địch mới Vladimir Kramnik đối đầu với phần mềm khác, Deep Fritz. Kết quả: hòa. Nhưng bốn năm sau, con người đã thất bại trước phần mềm này.
Sau đó, nhiều phần mềm dễ dàng đánh bại Deep Blue, khi có khả năng tính trước 20 nước trong vòng ít hơn 3 phút. Kể từ đó, phần mềm không còn là đối thủ của con người, mà tham gia vào sự tập luyện của các nhà vô địch. Nhược điểm: theo các chuyên gia, cuộc tranh tài cờ vua giờ đã mất đi sự cuốn hút do các nhà vô địch hiện nay chơi cờ … như những robot.
7/10 - 2011 : Với Watson, IBM thắng trò chơi « Jeopardy ! »
FRANK NIEDERCORN
Với việc thắng trò chơi truyền hình nổi tiếng nhất của Mỹ, IBM đã đưa máy tính tiến một bước quan trọng trong cuộc chạy đua với con người. Vấn đề còn lại là làm thế nào để làm giàu từ công nghệ này.
Năm 2006, một số nhà nghiên cứu của IBM ăn tối tại Yorktown Heights, cách không xa trung tâm nghiên cứu chính của IBM ở New York. Trong bữa tối đó, họ xem trò chơi truyền hình “Jeopardy !” và tự hỏi tại sao không dựa trên trò chơi này để đặt ra một thách thức mới. Mười năm trước đây, IBM đã gây ấn tượng mạnh khi máy tính Deep Blue đánh bại nhà vô địch cờ vua Kasparov. Khi đó, IBM tin tưởng vào sức mạnh tính toán của máy tính khi thực hiện mỗi nước đi. Với “Jeopardy !”, các nhà nghiên cứu IBM muốn đi xa hơn và thể hiện sự tiến bộ của họ trong việc hiểu ngôn ngữ tự nhiên và phân tích ngữ nghĩa.
Trong trò chơi “Jeopardy !” về kiến thức tổng quát, ba người chơi phải tìm ra câu hỏi ứng với một câu trả lời, độ khó của trò chơi này còn lớn hơn cờ vua. Trò chơi này đi vào sự tinh tế của ngôn ngữ, cần phải hiểu được các từ phổ thông và từ lóng, sự mỉa mai, hình ảnh. “Jeopardy !” bổ sung hai thách thức lớn: sự nhanh nhạy và cân nhắc rủi ro. IBM phân tích chiến lược của các người chơi xuất sắc nhất, là những người trả lời chính xác trên 85% trường hợp nhưng cũng phải tự biết các điểm yếu. Với “Jeopardy !”, một câu trả lời đúng sẽ làm tăng tiền thưởng, một câu trả lời sai sẽ khiến bị trừ tiền. Nghĩa là cũng phải biết im lặng khi không biết chắc câu trả lời. Từ năm 2009, IBM đặt tên dự án này là Watson, theo tên của lãnh đạo công ty giai đoạn 1914-1956. Với Deep Blue, IBM đã xây dựng chương trình chạy trên một máy tính chuyên biệt. Với “Jeopardy !”, IBM thiết kế một máy tính từ 90 server chạy trên Linux. Toàn bộ hệ thống, tất nhiên là không nối mạng với bên ngoài, đã nạp 15 000 Gb thông tin: bách khoa toàn thư, tiểu thuyết, tự điển, blog…, tức tương đương với một triệu cuốn sách.
Trong vòng nhiều tuần, Watson được huấn luyện và kiểm tra thông qua 55 lần chơi với các đối thủ cũ. Từ những nhầm lẫn trong các tình huống khó hay lạc đề do sự tinh tế của ngôn ngữ, Watson học được từ những sai sót này và cải thiện giải thuật về phân tích ngữ cảnh. “Watson đánh dấu sự ra đời của hệ thống nhận thức. Nó báo hiệu sự kết thúc của code và lập trình để đi vào các hệ thống có khả năng học”, Jean-Philippe Desbiolles, phó giám đốc IBM-France giải thích. Tháng 2/2011, trận đấu diễn ra với hai người chơi giỏi nhất từ trước đến giờ, Ken Jennings và Brad Rutter, và máy tính Watson. Khán giả xem đông kỉ lục, và Watson đã giành chiến thắng một cách thuyết phục. Mặc dù nó vẫn mắc những sai sót và lỗi ngớ ngẩn: với câu hỏi thuộc chủ đề “các thành phố của Mỹ”, Watson đưa ra tên thành phố … Toronto, ở Canada! “Nó không phải là hoàn hảo tuyệt đối, nhưng đủ mạnh để thắng hai người chơi giỏi nhất”, Jean-Philippe Desbiolles nhấn mạnh.
Khác với Deep Blue, IBM đã có mục tiêu cụ thể khi xây dựng Watson. “Công nghệ này có tiềm năng làm thay đổi cách ra quyết định trong các công ty”, David Ferrucci, giám đốc chương trình này giải thích năm 2011. Từ cuối năm đó, các bác sĩ chuyên về ung thư của nhiều bệnh viện là những người đầu tiên nhận sự trợ giúp từ Watson. Theo một nghiên cứu của đại học Caroline du Nord, năm ngoái, trên tổng số 1000 hồ sơ, Watson đã đạt được tỉ lệ chẩn đoán tương đương với các chuyên gia về ung thư trong 99% trường hợp. Tuy nhiên, 30% trong số đó, Watson đưa ra câu trả lời dựa trên cách phân tích mà các bác sĩ chưa bao giờ dùng.
Watson cũng thâm nhập vào các dịch vụ tài chính. Tại Pháp, nó đã giúp 20 000 nhân viên phụ trách khách hàng của Crédit Mutuel trong việc phân loại email. Với việc mở một trung tâm chuyên về IoT tại Munich vào tháng 2 vừa rồi, Watson được khiển khai ở mức độ công nghiệp trong tất cả các lĩnh vực. Năm ngoái, Watson có thể đã mang lại cho IBM 500 triệu đô la, và có thể 6 tỉ đô la vào năm 2020, theo ước đoán của UBS. Nhưng cuộc chiến cũng gian nan: trong báo cáo vào ngày 12/7 vừa rồi, một nhà phân tích của ngân hàng Jefferies so sánh Watson với chiếc Cadillac, khá tốn kém khi khai thác. Ông ta nghi ngờ việc “Watson có thể mang lại những lợi nhuận lớn trong những năm tới”. Do nó còn cần phải cải thiện thêm: phải thu thập và chuẩn bị dữ liệu cho Watson. Ngoài ra, còn có sự cạnh tranh khốc liệt từ các công ty lớn trong lĩnh vực Internet, trong một thế giới mà giải thuật không còn quan trọng bằng dữ liệu dùng để xây dựng giải thuật.
8/10 - 2013 : GAFA đầu tư mạnh cho machine learning
PAUL MOLGA
Bỏ ra hàng trăm triệu đô la, các công ty lớn ở Silicon Valley tranh nhau chiêu mộ các chuyên gia về trí tuệ nhân tạo.
Sau thương vụ Siri năm 2010, trở thành công cụ giao tiếp bằng giọng nói của iPhone, các công ty cạnh tranh chiêu mộ các tài năng và các start-up trong lĩnh vực machine learning (học tự động), đây là công nghệ cho phép máy tính có thể hiểu được từ một lượng lớn thông tin. Đối với các công ty thuộc nhóm GAFA (Google, Amazone, Facebook, Apple) và các công ty tương tự khác (IBM, Salesforce, LinkedIn...), đây chính là chìa khóa để khai thác và phát huy giá trị của núi thông tin mà họ thu thập hằng ngày. Nhờ machine learning, Amazone có tham vọng đoán trước mong muốn của người mua, giúp người mua không còn phải suy nghĩ để mua mặt hàng gì. Apple kì vọng sẽ đưa điện thoại thông minh trở thành những công cụ hỗ trợ tuyệt vời như HAL, máy tính trong bộ phim “2001: Odyssée không gian”.
Chỉ có vấn đề là: trong lĩnh vực này vẫn chưa có nhiều các nhà nghiên cứu tài năng. Vào năm 2013, người ta ước tính có khoảng 50 chuyên gia giỏi xuất thân từ các trường đại học tốt nhất về machine learning, như Stanford hay MIT. Và giá trị của họ cao ngất ngưỡng. Năm 2014, khi mua lại công ty DeepMind của Anh với giá 625 triệu đô la (DeepMind là start-up đã phát triển phần mềm AlphaGo, đánh bại nhà vô địch cờ vây thế giới), Google xem như đã trả cho mỗi nhà nghiên cứu khoảng 50 triệu đô la (start-up này lúc đó có khoảng hơn 10 nhà nghiên cứu). Đây là giá kỉ lục, khi so với các nhà phát triển phần mềm thường có giá từ 1 đến 2 triệu đô la.
Thông qua các vụ mua bán này, các nhà đầu tư khiến thị trường sôi động lên. Gần 700 start-up hoạt động trong lĩnh vực trí tuệ nhân tạo, theo thống kê của Crunchbase. Hơn một nửa (380 start-up) tập trung vào machine learning. Các công ty khác quan tâm đến công cụ giao tiếp người-máy (92), hệ thống giới thiệu sản phẩm đến người mua hàng (66), robotics (65), công cụ thông minh (28), dịch tự động (15), và các công ty liên quan đến cảm nhận của con người (xử lý ngôn ngữ, thị giác máy tính, nhận dạng video, điều khiển bằng cử chỉ…).
Các công ty về machine learning tận dụng thời cơ vàng về vốn-rủi ro. Các quỹ đầu tư bắt đầu mạnh vào năm 2009, và từ đó, hằng năm, vốn đầu tư tăng ít nhất là 30%. Năm 2013, tổng vốn đầu tư là khoảng 600 triệu đô la, đối với các công ty thành lập từ 2006 đến 2010.
Trước xu hướng đó, các công ty GAFA giàu có ra sức tuyển dụng, nhất là khi sự cạnh tranh ngày càng mạnh. Các công ty lớn của Silicon Valley thâu tóm nhân tài thông qua mức lương có khi trên cả triệu đô mỗi tháng. Yann Le Cun, giám đốc nghiên cứu của Facebook từ tháng 12/2013, thừa nhận trong cuộc phỏng vấn trên “Journal du Net” là đã lôi kéo được rất nhiều tài năng từ Google. Sau đó, ông bổ sung thêm chừng 60 nhân lực mới cho các phòng thí nghiệm ở New York, San Francisco, và Paris.
Nhưng bằng cách mua lại các start-up có các tài năng này, các công ty GAFA mới có thể hi vọng đáp ứng được chiến lược đề ra. “Toàn bộ nền kinh tế chuyển sang thời kì giải thuật”, giám đốc nghiên cứu của Gartner, Peter Sondergaard, cho biết.
Sở hữu các công nghệ là vô giá. Bên cạnh Siri, Apple còn mua Emotient với nhận dạng khuôn mặt và cảm xúc, VocalIQ để tăng tính năng về nhận dạng tiếng nói cho Siri, hay Perceptio về nhận dạng ảnh. Apple còn liên kết với IBM, công ty đã phát triển máy tính Watson và đầu tư ít nhất là 7 tỉ đô la cho lĩnh vực trí tuệ nhân tạo. IBM mua lại start-up Cognea, chuyên về công cụ giao tiếp năm 2014, rồi AlchemyAPI, chuyên gia về phân tích văn bản và hình ảnh năm 2015, hay Truven Health Analytics (với giá 2.6 tỉ đô la), quản lý kho dữ liệu với 200 triệu bệnh nhân (giấu tên). Sự sôi động này cũng chỉ mới bắt đầu: đầu tư cho các phần mềm trí tuệ nhân tạo sẽ còn bùng nổ với mức tăng trưởng hơn 50% mỗi năm, cho đến năm 2020.
9/10 - 2016 : Google vô địch cờ vây
BENOIT GEORGES
Tại Séoul, phần mềm AlphaGo đánh bại nhà vô địch thế giới Lee Sedol, một chiến thắng thể hiện sự tiến bộ của deep learning.
Chúng ta đã biết IBM và cờ vua, với trận đấu Deep Blue-Kasparov năm 1997. Rồi IBM với trò chơi truyền hình Jeopardy, mà máy tính Watson giành chiến thắng năm 2011. Nhưng rồi thời thế đã thay đổi, chiến thắng đầu tiên của trí tuệ nhân tạo đối với con người trong môn cờ vây không phải đến từ IBM, mà từ Google. Trận đấu gồm 5 ván, được tổ chức từ ngày 9 đến 15/03/2016, tại một khách sạn lớn ở Sesoul, kết thúc với kết quả thuyết phục: phần mềm AlphaGo thắng 4 ván, Lee Sedol chỉ thắng 1 ván. Đặc biệt, trước sự quan sát của cả thế giới, nó cho thấy sự tiến bộ nhanh chóng và ấn tượng của học tự động (machine learning). Trong đó, nổi bật với start-up của Anh DeepMind, thuộc Google từ năm 2014.
Ngay cả những chuyên gia giỏi nhất về trí tuệ nhân tạo cũng không nghĩ rằng máy tính có thể thắng con người trong môn cờ vây trước thập kỉ 2020. Bertrand Braunschweig, giám đốc trung tâm nghiên cứu Inria-Saclay và cựu chủ tịch Hiệp hội trí tuệ nhân tạo của Pháp, nhớ lại “Nó tiến bộ nhanh hơn nhiều so với những gì chúng ta đã nghĩ. Nhóm phát triển AlphaGo đã biết cách khai thác khả năng tính toán mạnh mẽ, đồng thời khả năng học của máy tính khi cho nó chơi cờ với chính nó”.
Với lịch sử gần 3000 năm, cờ vây từ lâu được xem như là thử thách lớn nhất, do số lượng vị trí không thể tính được – người ta nói rằng nó còn lớn hơn số nguyên tử trong vũ trụ. Các quân cờ trắng và đen di chuyển trên bàn cờ gồm 19 hàng, 19 cột, tức 361 điểm giao nhau – trong khi cờ vua gồm 8 hàng, 8 cột và 64 ô. “Cờ vây có độ tinh tế hiếm có: các bước đi rất đơn giản nhưng cờ vây có độ phức tạp khổng lồ”, Demis Hassabis, đồng sáng lập và tổng giám đốc của DeepMind, giải thích với Echos đêm trước trận đấu ở Séoul.
Công ty của cựu thần đồng cờ vua này, đồng thời là nhà phát triển phần mềm và tiến sĩ về khoa học thần kinh, được biết đến với các hệ thống trí tuệ nhân tạo có khả năng tự học để chơi các trò chơi video các năm 1970 hay 1980, như Space Invaders. Chiến thắng trên đến từ sự kết hợp hai công nghệ của học tự động: deep learning, lấy cảm hứng từ các neuron trong não người, và học tăng cường, cho phép phần mềm cải thiện các quyết định từ kinh nghiệm.
Với môn cờ vây, ban đầu các kĩ sư của DeepMind huấn luyện hệ thống bằng cách bắt chước con người, sau đó tự chơi hàng trăm ngàn ván. AlphaGo được bí mật thử nghiệm vào cuối năm 2015 với nhà vô địch cờ vây Châu Âu, kì thủ người Pháp gốc Trung Quốc Fan Hui, mà AlphaGo đã thắng 5-0. Chiến thắng này được mô tả nổi bật trên tạp chí Nature ngày 27/01/2016, và làm bệ phóng cho cuộc gặp gỡ với Lee Sedol.
Tại Sesoul, trước một đối thủ xuất sắc và nổi tiếng hơn Fan Hui nhiều, AlphaGo đã chiến thắng thuyết phục. AlphaGo thắng ván đầu tiên, ngày 9/3/2016. Hôm sau, trong ván đấu kéo dài 5 giờ, máy tính đã đi một nước cờ độc đáo, được các chuyên gia đánh giá là “tuyệt vời”, và thắng ván thứ hai. AlphaGo cũng thắng ván thứ ba. Lee Sedol gỡ gạc danh dự cho con người với chiến thắng ở ván thứ tư, trước khi thua ván thứ năm.
Chiến thắng toàn diện cho AlphaGo, và cũng cho Alphabet, công ty mẹ của Google được thành lập vài tháng trước đó. Với chiến thắng này, công ty của Larry Page và Sergey Brin (tranh thủ đến Séoul để dự một ván) trở thành một trong những người dẫn đầu về deep learning. Alphabet cũng tận dụng cơ hội này để quảng bá tại châu Á, nơi mà công cụ tìm kiếm Google bị lép vế trước Naver (Hàn quốc) và Baidu (Trung Quốc). Được truyền trực tiếp trên truyền hình và Youtube, ván đầu tiên đã thu hút 100 triệu người theo dõi, trong đó có 60 triệu người tại Trung Quốc.
Kể từ chiến thắng lịch sử trên, AlphaGo đã ghi thêm một chiến tích nữa khi, trong tháng 5 vừa rồi, thắng Ke Jie, nhà vô địch Trung Quốc, được xem là số một thế giới hiện nay, với tỉ số 3-0. Sau đó, DeepMind tuyên bố rút lui khỏi trò chơi này. Nhưng công ty của Demis Hassabis còn hướng đến nhiều thách thức khác: đầu tháng 8, tạp chí “New Scientist” thông báo rằng một trong những nhóm của DeepMind đang xây dựng hệ thống trí tuệ nhân tạo có khả năng hiểu được thế giới xung quanh chúng ta bằng cách xem các video.
10/10 - 2017: Alexa, giọng nói của Amazon
FRANK NIEDERCORN
Với những công cụ hỗ trợ bằng giọng nói, trí tuệ nhân tạo đã đi vào đời sống mỗi nhà. Đây là lĩnh vực mà công ty của Jeff Bezos đã đi trước Google và Apple.
Alexa nổi bật tại triển lãm Consumer Electronic Show ở Las Vegas đầu năm nay. Alexa xuất hiện khắp mọi nơi. Công cụ hỗ trợ bằng giọng nói của Amazon có mặt trong hàng chục sản phẩm: máy giặt Whirlpool, điện thoại Mattel, Internet box, loa Lenovo hay Hub Robot của LG. Sắp đến, nó sẽ trang bị cho xe Ford. Alexa gắn liền với loa Echo, xuất hiện cách đây hai năm bởi Amazon. Được phát triển một cách bí mật với tên “Project D” hay “Doppler”, sản phẩm này của Amazon nhằm phục thù cho sự thất bại của Fire Phone.
Theo Forrester, công ty của Jeff Bezos đã bán được hơn 6 triệu sản phẩm, năm nay hướng đến mục tiêu là 10 triệu. Với Amazon, Alexa là câu trả lời cho các đối thủ công nghệ cao khác: Siri của Apple ra đời từ năm 2011; Google Now, xuất hiện năm ngoái; hay Cortana của Microsoft… mà Alexa sẽ sớm tương thích do thỏa thuận hợp tác giữa hai công ty mới được tiết lộ trên tờ New York Times.
Với đội ngũ gồm một ngàn người làm việc với Alexa, Amazon là công ty đầu tư mạnh nhất vào dạng phần mềm này, và cho phép hàng ngàn doanh nghiệp hợp tác sử dụng nó. Alexa có 7000 tính năng liên quan đến điều khiển bằng giọng nói, từ tìm xe với Uber đến đặt bữa tối với Pizza Hut. Mục tiêu: đưa công cụ hỗ trợ bằng giọng nói trở nên phổ biến khắp mọi nơi, cho phép tương tác với các thiết bị nối mạng, và nhất là các thiết bị trong nhà và đời sống hằng ngày.
“Đây là ứng dụng đầu tiên thực sự đến với công chúng của trí tuệ nhân tạo, mang lại sự gần gũi với người dùng”, Stéphane Distinguin, người sáng lập và chủ tịch của Fabernovel, cho biết. Đối với Amazon cũng như các đối thủ cạnh tranh, sự tiến bộ đến từ những đột phá công nghệ trong nhận dạng tiếng nói, theo Emmanuel Vincent – nhà nghiên cứu của nhóm Multispeech tại Inria Nancy-Grand Est – “Nhờ sự tăng mạnh của lượng dữ liệu và khả năng tính toán, chúng ta đã chuyển từ mô hình thuần xác suất sang mạng neuron nhiều lớp”.
Điều này cho phép huấn luyện và cải thiện hệ thống nhận dạng tiếng nói bằng cách cho nó học hàng chục ngàn giờ thâu âm. “Tất cả các công ty đều đi theo hướng này, dù mỗi công ty có đôi chút khác biệt. IBM và Microsoft tương đối mở và chúng ta biết được những nghiên cứu của họ. Ngược lại, Amazon và Apple khá bí mật, và ta biết được rất ít. Google thì nằm giữa hai dạng này”, Emmanuel Vincent phân tích.
Công cụ hỗ trợ bằng giọng nói có tầm quan trọng chiến lược. “Với Amazon, Alexa là công cụ đặc biệt hiệu quả, cho dù liên quan đến bán bột giặt, kì nghỉ, hay có mặt trong tất cả các tiện ích”, Stéphane Distinguin cho biết. Không chỉ giọng nói là phương tiện tự nhiên hơn bàn phím trong việc lấy thông tin, nó còn phù hợp với nhiều tình huống khác như lái xe, nấu ăn, đi bộ… Từ đây đến 2020, theo comScore, có thể từ một phần ba đến một nửa lượng truy cập Web được thực hiện bằng giọng nói. “Đây là một cuộc cách mạng nho nhỏ đối với các công ty quảng cáo, vốn quen với các công cụ tìm kiếm cho ra các câu trả lời dài hàng trang: một công cụ hỗ trợ bằng giọng nói chỉ đưa ra một câu trả lời”, Clément Boccardi, giám đốc về mảng sắp xếp trang web và nội dung tại iProspect France, phân tích.
Tuy nhiên, vẫn còn cần cải thiện nhiều để đưa dạng công cụ như Alexa trở nên phổ biến rộng khắp. Ví dụ, nhận dạng tiếng nói chỉ thực sự hoạt động tốt trong cự ly rất ngắn – đó cũng là lí do mà Echo dùng 8 micro để xác định âm thanh từ đâu tới. Alexa yêu cầu phải nhớ từ khóa để kích hoạt dịch vụ, điều này làm giảm sự tiện dụng đối với người dùng. Vấn đề khác là ngôn ngữ: Alexa hiểu được tiếng Anh, nhưng sẽ còn rất nhiều khó khăn với các ngôn ngữ mà nó không có cơ sở dữ liệu âm thanh. Trong khi Google Home vừa có mặt ở Pháp, công cụ của Amazon có lẽ chưa xuất hiện trước 2018.
Cuối cùng, để công cụ hỗ trợ bằng giọng nói trở nên thật sự tiện lợi, cần phải chuyển từ bước nhận dạng tiếng nói sang bước hiểu tiếng nói và nghĩa của từ, từ đó có thể đưa ra các hành động phù hợp. “Hệ thống hiểu tiếng nói còn đang trong giai đoạn nghiên cứu, với tính năng còn hạn chế. Chúng ta còn lâu mới có được công cụ có thể nói tự nhiên và ra quyết định một cách đa dạng như con người”, Emmanuel Vincent dự báo.