10 khoảnh khắc quan trọng nhất trong AI (cho đến nay)
Từ những câu chuyện robot đầu tiên của Isaac Asimov đến AlphaGo, AI đã có những thăng trầm. Nhưng lịch sử của nó chỉ mới bắt đầu.
10 khoảnh khắc quan trọng nhất trong AI (cho đến nay)
[Ảnh: Pixabay / Pexels]
BỞI MARK SULLIVAN10 PHÚT ĐỌC
Bài viết này là một phần của loạt bài biên tập của Fast Company, The New Rules of AI . Hơn 60 năm trong kỷ nguyên của trí tuệ nhân tạo, các công ty công nghệ lớn nhất thế giới mới bắt đầu mở ra những gì có thể với AI Biệt và vật lộn với cách nó có thể thay đổi tương lai của chúng ta. Nhấn vào đây để đọc tất cả các câu chuyện trong bộ.
Trí tuệ nhân tạo vẫn còn trong tuổi trẻ của nó. Nhưng một số điều rất lớn đã xảy ra. Một số người trong số họ thu hút sự chú ý của văn hóa, trong khi những người khác tạo ra sóng xung kích cảm thấy chủ yếu trong giới hạn ngột ngạt của học viện. Đây là một số khoảnh khắc quan trọng thúc đẩy AI tiến lên theo những cách sâu sắc nhất.
1. ISAAC ASIMOV VIẾT BA ĐỊNH LUẬT VỀ ROBOT (1942)
Câu chuyện của Asimov, Run Runoundound đánh dấu lần đầu tiên tác giả khoa học viễn tưởng nổi tiếng liệt kê đầy đủ ba bộ luật về Robotics của mình .
Luật đầu tiên: Robot có thể không gây thương tích cho con người hoặc thông qua việc không hành động, cho phép con người đến gây hại.
Luật thứ hai: Một robot phải tuân theo các mệnh lệnh được đưa ra bởi con người trừ khi các mệnh lệnh đó sẽ mâu thuẫn với Luật thứ nhất.
Luật thứ ba: Robot phải bảo vệ sự tồn tại của chính mình miễn là sự bảo vệ đó không mâu thuẫn với Luật thứ nhất hoặc Luật thứ hai.
Cơn lốc Runaround kể câu chuyện về Speedy, một người máy rơi vào tình huống cân bằng luật thứ ba với hai luật đầu tiên dường như là không thể. Những câu chuyện của Asimov trong sê -ri Robot có những người hâm mộ khoa học viễn tưởng, một số trong số họ là các nhà khoa học, nghĩ về khả năng suy nghĩ của máy móc. Thậm chí ngày nay, nhiều người trải qua bài tập trí tuệ áp dụng luật của Asimov vào AI hiện đại .
2. ALAN TURING ĐỀ XUẤT TRÒ CHƠI BẮT CHƯỚC (1950)
Alan Turing là tác giả của điểm chuẩn đầu tiên để đo lường mức độ cảm nhận của máy vào năm 1950. [Ảnh: Unknown / Wikimedia Commons]
“Tôi đề nghị xem xét các câu hỏi 'máy Cần nghĩ?'” Vì vậy, bắt đầu tinh 1950 Alan Turing giấy nghiên cứu đã phát triển một khuôn khổ cho việc suy nghĩ về máy tình báo. Ông hỏi tại sao, nếu một cỗ máy có thể bắt chước hành vi tình cảm của con người, thì chính nó không phải là chúng sinh.
Câu hỏi lý thuyết đó đã làm nảy sinh trò chơi Bắt chước nổi tiếng của Turing, một bài tập trong đó một người thẩm vấn con người là người thách thức để phân biệt giữa các phản ứng chỉ có văn bản của một cỗ máy và con người. Không có cỗ máy nào có khả năng vượt qua bài kiểm tra như thế tồn tại trong thời đại của Turing, hay ngày nay. Nhưng thử nghiệm của ông cung cấp một chuẩn mực đơn giản để xác định trí thông minh trong một máy. Nó đã giúp định hình một triết lý về trí tuệ nhân tạo.
3. DARTMOUTH TỔ CHỨC MỘT HỘI NGHỊ VỀ AI (1956)
Đến năm 1955, các nhà khoa học trên thế giới đã bắt đầu suy nghĩ một cách khái niệm về những thứ như mạng lưới thần kinh và ngôn ngữ tự nhiên, nhưng không có khái niệm thống nhất để bao bọc các loại trí thông minh máy móc khác nhau. Một giáo sư toán học của Đại học Dartmouth tên là John McCarthy đã đặt ra thuật ngữ Trí thông minh nhân tạo có nghĩa là để đóng gói tất cả.
McCarthy đã lãnh đạo một nhóm đã xin tài trợ để tổ chức một hội nghị AI vào năm sau. Họ đã mời nhiều nhà nghiên cứu khoa học tiên tiến hàng đầu trong ngày tới Hội trường Dartmouth cho sự kiện vào mùa hè năm 1956. Các nhà khoa học đã thảo luận về nhiều lĩnh vực nghiên cứu AI tiềm năng, bao gồm học tập và tìm kiếm, tầm nhìn, lý luận, ngôn ngữ và nhận thức, chơi game (đặc biệt là cờ vua) và tương tác của con người với các máy móc thông minh như robot cá nhân.
Sự đồng thuận chung từ các cuộc thảo luận là AI có tiềm năng lớn để mang lại lợi ích cho con người. Họ mang lại một khuôn khổ chung về các lĩnh vực nghiên cứu nơi trí thông minh máy móc có thể có tác động. Hội nghị đã tổ chức và tiếp sức cho AI như một chuyên ngành nghiên cứu trong nhiều năm tới.
Liên quan: Để hiểu trí tuệ nhân tạo năm 2019, hãy xem chương trình truyền hình năm 1960 này
4. FRANK ROSENBLATT XÂY DỰNG PERCEPTRON (1957)
Frank Rosenblatt đã xây dựng một mạng lưới thần kinh cơ học tại Phòng thí nghiệm Hàng không Cornell năm 1957. [Ảnh: Wikimedia Commons ]
Cấu trúc cơ bản của mạng lưới thần kinh được gọi là perceptionron . Đó là một loạt các đầu vào báo cáo dữ liệu cho một nút sau đó tính toán các đầu vào và đi đến một phân loại và mức độ tin cậy. Ví dụ: các yếu tố đầu vào có thể phân tích các khía cạnh khác nhau của một hình ảnh và bầu chọn Bình (với các mức độ chắc chắn khác nhau) về việc có một khuôn mặt được mô tả trong đó hay không. Sau đó, nút có thể tính toán phiếu bầu của người dùng và mức độ tin cậy và đạt được sự đồng thuận. Các mạng thần kinh ngày nay, chạy trên các máy tính mạnh mẽ, kết nối hàng tỷ cấu trúc này.
Nhưng tri giác tồn tại tốt trước khi các máy tính mạnh mẽ làm được. Vào cuối những năm 1950, một nhà tâm lý học nghiên cứu trẻ tuổi tên là Frank Rosenblatt đã xây dựng một mô hình cơ điện của một tri giác gọi là Mark I Perceptron , ngày nay nằm ở Smithsonian. Đó là một mạng lưới thần kinh tương tự bao gồm một mạng lưới các tế bào quang điện nhạy sáng được nối với nhau bằng dây dẫn đến các nút chứa động cơ điện có điện trở quay. Rosenblatt đã phát triển một thuật toán Per Perronron thuật ngữ của người hướng dẫn mạng để điều chỉnh dần các thế mạnh đầu vào của nó cho đến khi chúng xác định chính xác các đối tượng, cho phép nó học hỏi một cách hiệu quả.
Các nhà khoa học đã tranh luận về sự liên quan của Perceptron vào những năm 1980. Điều quan trọng là tạo ra một phương án vật lý của mạng lưới thần kinh, mà trước đó chủ yếu là một khái niệm học thuật.
5. AI TRẢI QUA MÙA ĐÔNG ĐẦU TIÊN (NHỮNG NĂM 1970)
Trí tuệ nhân tạo đã dành phần lớn lịch sử của nó trong lĩnh vực nghiên cứu. Trong suốt những năm 1960, các cơ quan chính phủ như Cơ quan Dự án Nghiên cứu Quốc phòng Hoa Kỳ (DARPA) đã đầu tư tiền vào nghiên cứu và hỏi rất ít về lợi tức cuối cùng của khoản đầu tư của họ. Và các nhà nghiên cứu AI thường giám sát tiềm năng công việc của họ để họ có thể giữ tài trợ của họ. Tất cả đã thay đổi vào cuối những năm 1960 và đầu thập niên 70. Hai báo cáo, Ủy ban tư vấn xử lý ngôn ngữ tự động (ALPAC) báo cáo Chính phủ Hoa Kỳ vào năm 1966 và Báo cáo Lighthillđối với chính phủ Anh năm 1973, đã xem xét nghiên cứu AI một cách thực dụng và trả lại những phân tích rất bi quan về tiềm năng của công nghệ. Cả hai báo cáo đều đặt câu hỏi về sự tiến bộ rõ rệt của các lĩnh vực nghiên cứu AI khác nhau. Báo cáo Lighthill lập luận rằng AI cho các nhiệm vụ như nhận dạng giọng nói sẽ rất khó để mở rộng quy mô có ích cho chính phủ hoặc quân đội.
Do đó, cả chính phủ Mỹ và chính phủ Anh đều bắt đầu cắt tài trợ cho nghiên cứu AI của trường đại học. DARPA, qua đó tài trợ nghiên cứu AI đã được lưu chuyển tự do trong hầu hết những năm 60, giờ đây yêu cầu các đề xuất nghiên cứu đi kèm với các mốc thời gian rõ ràng và mô tả chi tiết về các sản phẩm. Điều đó khiến AI trông giống như một sự thất vọng có thể không bao giờ đạt đến khả năng của con người. Mùa đông đầu tiên của AI đã kéo dài trong suốt thập niên 70 và thập niên 80.
6. MÙA ĐÔNG AI THỨ HAI ĐẾN (1987)
Những năm 1980 đã mở ra với sự phát triển và thành công của các hệ thống chuyên gia của thành phố , nơi lưu trữ lượng lớn kiến thức về miền và mô phỏng việc ra quyết định của các chuyên gia về con người. Công nghệ ban đầu được phát triển bởi Carnegie Mellon cho Tập đoàn thiết bị kỹ thuật số và các tập đoàn đã triển khai công nghệ này một cách nhanh chóng. Nhưng các hệ thống chuyên gia đòi hỏi phần cứng chuyên dụng, đắt tiền, đã trở thành một vấn đề khi các máy trạm của Sun microsystems và máy tính cá nhân của Apple và IBM trở nên có sẵn với sức mạnh tương đương và giá thấp hơn. Thị trường cho các máy tính hệ thống chuyên gia sụp đổ vào năm 1987, với các nhà cung cấp chính của các máy rời khỏi thị trường.
Thành công của các hệ thống chuyên gia vào đầu những năm 80 đã khuyến khích DARPA tăng tiền tài trợ cho nghiên cứu AI, nhưng điều đó đã thay đổi một lần nữa khi cơ quan này lại bóp nghẹt phần lớn tài trợ cho AI cho tất cả trừ một số chương trình được chọn thủ công. Một lần nữa thuật ngữ trí tuệ nhân tạo của người Viking đã trở thành gần như cấm kỵ trong cộng đồng nghiên cứu. Để tránh bị coi là những kẻ mơ mộng không thực tế đang xin tài trợ, các nhà nghiên cứu đã bắt đầu sử dụng các tên khác nhau cho các công việc liên quan đến AI như tin học, tin học máy, phân tích và các phân tích. Mùa đông thứ hai AI AI này đã kéo dài vào những năm 2000.
7. IBM DEEP BLUE ĐÁNH BẠI KASPAROV (1997)
Deep Blue của IBM đã đánh bại người chơi cờ người giỏi nhất thế giới, Gary Kasparov, vào năm 1997. [Ảnh: James the Nhiếp ảnh gia / Wikimedia Commons]
Hồ sơ công khai về trí tuệ nhân tạo đã tăng mạnh vào năm 1997 khi máy tính cờ vua Deep Blue của IBM đánh bại nhà vô địch thế giới lúc bấy giờ Garry Kasparov trong môn cờ vua. Trong một loạt sáu trò chơi được chơi trong một studio truyền hình, Deep Blue đã thắng hai trò chơi, Kasparov thắng một và ba trong số các trò chơi kết thúc với tỷ số hòa. Kasparov đã đánh bại một phiên bản trước đó của Deep Blue một năm trước.
Deep Blue có rất nhiều sức mạnh tính toán, và nó đã sử dụng phương pháp tiếp cận mạnh mẽ của Vương quốc Hồi giáo, đánh giá 200 triệu di chuyển có thể trong một giây để tìm ra phương pháp tốt nhất có thể. Con người có khả năng kiểm tra chỉ khoảng 50 di chuyển mỗi lượt. Hiệu ứng của Deep Blue giống như AI, nhưng máy tính không thực sự nghĩ về chiến lược và học hỏi như đã chơi, như các hệ thống sau này sẽ làm.
Tuy nhiên, chiến thắng của Deep Blue trước Kasparov đã đưa AI trở lại tâm trí công chúng trong thời trang ấn tượng. Một số người đã bị mê hoặc. Những người khác không thoải mái với một cỗ máy đánh bại một người chơi cờ người cấp chuyên gia. Các nhà đầu tư đã rất ấn tượng: Chiến thắng của Deep Blue đã đẩy cổ phiếu của IBM tăng 10 đô la lên mức cao nhất mọi thời đại.
8. MỘT MẠNG LƯỚI THẦN KINH NHÌN THẤY MÈO (2011)
Đến năm 2011, các nhà khoa học tại các trường đại học trên thế giới đã nói về việc tạo ra mạng lưới thần kinh của người Hồi giáo. Năm đó, kỹ sư Google Jeff Dean đã gặp một giáo sư khoa học máy tính Stanford tên là Andrew Ng. Cả hai đã ấp ủ ý tưởng xây dựng một mạng lưới thần kinh lớn, mang lại cho nó sức mạnh tính toán khổng lồ bằng cách sử dụng tài nguyên máy chủ của Google và cung cấp cho nó một bộ dữ liệu khổng lồ về hình ảnh.
Mạng lưới thần kinh mà họ xây dựng đã chạy trên 16.000 bộ xử lý máy chủ. Họ đã cho nó ăn 10 triệu lượt lấy màn hình ngẫu nhiên, không nhãn từ YouTube. Dean và Ng đã không yêu cầu mạng lưới thần kinh đưa ra bất kỳ thông tin cụ thể hoặc gắn nhãn cho các hình ảnh. Khi mạng lưới thần kinh chạy theo kiểu không giám sát này, họ sẽ tự nhiên cố gắng tìm các mẫu trong dữ liệu và phân loại biểu mẫu.
Mạng lưới thần kinh đã xử lý dữ liệu hình ảnh trong ba ngày. Sau đó, nó trả về một đầu ra chứa ba hình ảnh mờ mô tả các mẫu hình ảnh mà nó đã thấy lặp đi lặp lại trong các hình ảnh thử nghiệm, một khuôn mặt người, cơ thể người và một con mèo. Nghiên cứu đó là một bước đột phá lớn trong việc sử dụng mạng lưới thần kinh và học tập không giám sát trong các nhiệm vụ thị giác máy tính. Sự kiện này cũng đánh dấu sự khởi đầu của dự án Google Brain.
9. GEOFFREY HINTON GIẢI PHÓNG MẠNG LƯỚI THẦN KINH SÂU (2012)
Nghiên cứu của Geoffrey Hinton tại Đại học Toronto đã giúp mang lại sự phục hưng trong học tập sâu. [Ảnh: Eviatar Bach / Wikimedia Commons]
Một năm sau sự đột phá của Dean và Ng, giáo sư Geoffrey Hinton của Đại học Toronto và hai sinh viên của ông đã xây dựng một mô hình mạng thần kinh thị giác máy tính có tên AlexNet để cạnh tranh trong một cuộc thi nhận dạng hình ảnh có tên ImageNet . Những người tham gia đã sử dụng hệ thống của họ để xử lý hàng triệu hình ảnh thử nghiệm và xác định chúng với độ chính xác cao nhất có thể. AlexNet đã giành chiến thắng trong cuộc thi với tỷ lệ lỗi ít hơn một nửa so với á quân. Chỉ có 15,3% trường hợp là nhãn chính xác không nằm trong năm câu trả lời có khả năng cao nhất của AlexNet. Điểm tốt nhất trước đó là 26%.
Chiến thắng đã tạo ra một trường hợp mạnh mẽ rằng các mạng thần kinh sâu chạy trên bộ xử lý đồ họa tốt hơn nhiều so với các hệ thống khác trong việc xác định và phân loại chính xác hình ảnh. Điều này, có lẽ nhiều hơn bất kỳ sự kiện đơn lẻ nào khác, đã khởi đầu sự phục hưng hiện tại trong các mạng lưới thần kinh sâu sắc, mang lại cho Hinton biệt danh của cha đỡ đầu của học tập sâu. Cùng với các đồng nghiệp AI, Yoshua Bengio và Yann LeCun , Hinton đã giành giải thưởng Turing đáng thèm muốn cho năm 2018.
10. ALPHAGO ĐÁNH BẠI NHÀ VÔ ĐỊCH CỜ VÂY NGƯỜI (2016)
Quay trở lại năm 2013, các nhà nghiên cứu tại một công ty khởi nghiệp ở Anh có tên DeepMind đã xuất bản một bài báo cho thấy cách họ có thể sử dụng mạng lưới thần kinh để chơi và đánh bại 50 trò chơi Atari cũ. Bị ấn tượng, Google đã chộp lấy công ty với số tiền được báo cáo là 400 triệu đô la. Nhưng ngày vinh quang của DeepMind đã ở phía trước nó.
Vài năm sau, các nhà khoa học của DeepMind, hiện thuộc Google, đã chuyển từ các trò chơi Atari sang một trong những thách thức lâu dài nhất của AI, trò chơi cờ vây của Nhật Bản. Họ đã phát triển một mô hình mạng thần kinh có tên AlphaGo được thiết kế để chơi Go và học bằng cách chơi. Phần mềm này đã chơi hàng ngàn trò chơi so với các phiên bản AlphaGo khác, học hỏi từ cả chiến lược thắng và thua của nó.
Nó đã làm việc. AlphaGo đã đánh bại người chơi cờ vây vĩ đại nhất thế giới, Lee Sedol, bốn trò chơi thành một trong một loạt các trò chơi vào tháng 3 năm 2016. Toàn bộ sự việc đã được ghi lại trong một bộ phim tài liệu . Theo dõi nó, thật khó để bỏ lỡ cảm giác buồn bã khi bị đánh bại. Có vẻ như con người, không chỉ một con người đã bị đánh bại.
Những tiến bộ gần đây trong các mạng lưới thần kinh sâu sắc đã có tác động sâu rộng đến mức câu chuyện thực sự về trí tuệ nhân tạo có thể chỉ mới bắt đầu. Vẫn còn rất nhiều hy vọng, sự cường điệu và thiếu kiên nhẫn, nhưng dường như rõ ràng rằng AI sẽ tác động đến mọi khía cạnh của cuộc sống thế kỷ 21 có thể theo những cách thậm chí còn sâu sắc hơn cả internet.
10 khoảnh khắc quan trọng nhất trong AI (cho đến nay)
[Ảnh: Pixabay / Pexels]
BỞI MARK SULLIVAN10 PHÚT ĐỌC
Bài viết này là một phần của loạt bài biên tập của Fast Company, The New Rules of AI . Hơn 60 năm trong kỷ nguyên của trí tuệ nhân tạo, các công ty công nghệ lớn nhất thế giới mới bắt đầu mở ra những gì có thể với AI Biệt và vật lộn với cách nó có thể thay đổi tương lai của chúng ta. Nhấn vào đây để đọc tất cả các câu chuyện trong bộ.
Trí tuệ nhân tạo vẫn còn trong tuổi trẻ của nó. Nhưng một số điều rất lớn đã xảy ra. Một số người trong số họ thu hút sự chú ý của văn hóa, trong khi những người khác tạo ra sóng xung kích cảm thấy chủ yếu trong giới hạn ngột ngạt của học viện. Đây là một số khoảnh khắc quan trọng thúc đẩy AI tiến lên theo những cách sâu sắc nhất.
1. ISAAC ASIMOV VIẾT BA ĐỊNH LUẬT VỀ ROBOT (1942)
Câu chuyện của Asimov, Run Runoundound đánh dấu lần đầu tiên tác giả khoa học viễn tưởng nổi tiếng liệt kê đầy đủ ba bộ luật về Robotics của mình .
Luật đầu tiên: Robot có thể không gây thương tích cho con người hoặc thông qua việc không hành động, cho phép con người đến gây hại.
Luật thứ hai: Một robot phải tuân theo các mệnh lệnh được đưa ra bởi con người trừ khi các mệnh lệnh đó sẽ mâu thuẫn với Luật thứ nhất.
Luật thứ ba: Robot phải bảo vệ sự tồn tại của chính mình miễn là sự bảo vệ đó không mâu thuẫn với Luật thứ nhất hoặc Luật thứ hai.
Cơn lốc Runaround kể câu chuyện về Speedy, một người máy rơi vào tình huống cân bằng luật thứ ba với hai luật đầu tiên dường như là không thể. Những câu chuyện của Asimov trong sê -ri Robot có những người hâm mộ khoa học viễn tưởng, một số trong số họ là các nhà khoa học, nghĩ về khả năng suy nghĩ của máy móc. Thậm chí ngày nay, nhiều người trải qua bài tập trí tuệ áp dụng luật của Asimov vào AI hiện đại .
2. ALAN TURING ĐỀ XUẤT TRÒ CHƠI BẮT CHƯỚC (1950)
Alan Turing là tác giả của điểm chuẩn đầu tiên để đo lường mức độ cảm nhận của máy vào năm 1950. [Ảnh: Unknown / Wikimedia Commons]
“Tôi đề nghị xem xét các câu hỏi 'máy Cần nghĩ?'” Vì vậy, bắt đầu tinh 1950 Alan Turing giấy nghiên cứu đã phát triển một khuôn khổ cho việc suy nghĩ về máy tình báo. Ông hỏi tại sao, nếu một cỗ máy có thể bắt chước hành vi tình cảm của con người, thì chính nó không phải là chúng sinh.
Câu hỏi lý thuyết đó đã làm nảy sinh trò chơi Bắt chước nổi tiếng của Turing, một bài tập trong đó một người thẩm vấn con người là người thách thức để phân biệt giữa các phản ứng chỉ có văn bản của một cỗ máy và con người. Không có cỗ máy nào có khả năng vượt qua bài kiểm tra như thế tồn tại trong thời đại của Turing, hay ngày nay. Nhưng thử nghiệm của ông cung cấp một chuẩn mực đơn giản để xác định trí thông minh trong một máy. Nó đã giúp định hình một triết lý về trí tuệ nhân tạo.
3. DARTMOUTH TỔ CHỨC MỘT HỘI NGHỊ VỀ AI (1956)
Đến năm 1955, các nhà khoa học trên thế giới đã bắt đầu suy nghĩ một cách khái niệm về những thứ như mạng lưới thần kinh và ngôn ngữ tự nhiên, nhưng không có khái niệm thống nhất để bao bọc các loại trí thông minh máy móc khác nhau. Một giáo sư toán học của Đại học Dartmouth tên là John McCarthy đã đặt ra thuật ngữ Trí thông minh nhân tạo có nghĩa là để đóng gói tất cả.
McCarthy đã lãnh đạo một nhóm đã xin tài trợ để tổ chức một hội nghị AI vào năm sau. Họ đã mời nhiều nhà nghiên cứu khoa học tiên tiến hàng đầu trong ngày tới Hội trường Dartmouth cho sự kiện vào mùa hè năm 1956. Các nhà khoa học đã thảo luận về nhiều lĩnh vực nghiên cứu AI tiềm năng, bao gồm học tập và tìm kiếm, tầm nhìn, lý luận, ngôn ngữ và nhận thức, chơi game (đặc biệt là cờ vua) và tương tác của con người với các máy móc thông minh như robot cá nhân.
Sự đồng thuận chung từ các cuộc thảo luận là AI có tiềm năng lớn để mang lại lợi ích cho con người. Họ mang lại một khuôn khổ chung về các lĩnh vực nghiên cứu nơi trí thông minh máy móc có thể có tác động. Hội nghị đã tổ chức và tiếp sức cho AI như một chuyên ngành nghiên cứu trong nhiều năm tới.
Liên quan: Để hiểu trí tuệ nhân tạo năm 2019, hãy xem chương trình truyền hình năm 1960 này
4. FRANK ROSENBLATT XÂY DỰNG PERCEPTRON (1957)
Frank Rosenblatt đã xây dựng một mạng lưới thần kinh cơ học tại Phòng thí nghiệm Hàng không Cornell năm 1957. [Ảnh: Wikimedia Commons ]
Cấu trúc cơ bản của mạng lưới thần kinh được gọi là perceptionron . Đó là một loạt các đầu vào báo cáo dữ liệu cho một nút sau đó tính toán các đầu vào và đi đến một phân loại và mức độ tin cậy. Ví dụ: các yếu tố đầu vào có thể phân tích các khía cạnh khác nhau của một hình ảnh và bầu chọn Bình (với các mức độ chắc chắn khác nhau) về việc có một khuôn mặt được mô tả trong đó hay không. Sau đó, nút có thể tính toán phiếu bầu của người dùng và mức độ tin cậy và đạt được sự đồng thuận. Các mạng thần kinh ngày nay, chạy trên các máy tính mạnh mẽ, kết nối hàng tỷ cấu trúc này.
Nhưng tri giác tồn tại tốt trước khi các máy tính mạnh mẽ làm được. Vào cuối những năm 1950, một nhà tâm lý học nghiên cứu trẻ tuổi tên là Frank Rosenblatt đã xây dựng một mô hình cơ điện của một tri giác gọi là Mark I Perceptron , ngày nay nằm ở Smithsonian. Đó là một mạng lưới thần kinh tương tự bao gồm một mạng lưới các tế bào quang điện nhạy sáng được nối với nhau bằng dây dẫn đến các nút chứa động cơ điện có điện trở quay. Rosenblatt đã phát triển một thuật toán Per Perronron thuật ngữ của người hướng dẫn mạng để điều chỉnh dần các thế mạnh đầu vào của nó cho đến khi chúng xác định chính xác các đối tượng, cho phép nó học hỏi một cách hiệu quả.
Các nhà khoa học đã tranh luận về sự liên quan của Perceptron vào những năm 1980. Điều quan trọng là tạo ra một phương án vật lý của mạng lưới thần kinh, mà trước đó chủ yếu là một khái niệm học thuật.
5. AI TRẢI QUA MÙA ĐÔNG ĐẦU TIÊN (NHỮNG NĂM 1970)
Trí tuệ nhân tạo đã dành phần lớn lịch sử của nó trong lĩnh vực nghiên cứu. Trong suốt những năm 1960, các cơ quan chính phủ như Cơ quan Dự án Nghiên cứu Quốc phòng Hoa Kỳ (DARPA) đã đầu tư tiền vào nghiên cứu và hỏi rất ít về lợi tức cuối cùng của khoản đầu tư của họ. Và các nhà nghiên cứu AI thường giám sát tiềm năng công việc của họ để họ có thể giữ tài trợ của họ. Tất cả đã thay đổi vào cuối những năm 1960 và đầu thập niên 70. Hai báo cáo, Ủy ban tư vấn xử lý ngôn ngữ tự động (ALPAC) báo cáo Chính phủ Hoa Kỳ vào năm 1966 và Báo cáo Lighthillđối với chính phủ Anh năm 1973, đã xem xét nghiên cứu AI một cách thực dụng và trả lại những phân tích rất bi quan về tiềm năng của công nghệ. Cả hai báo cáo đều đặt câu hỏi về sự tiến bộ rõ rệt của các lĩnh vực nghiên cứu AI khác nhau. Báo cáo Lighthill lập luận rằng AI cho các nhiệm vụ như nhận dạng giọng nói sẽ rất khó để mở rộng quy mô có ích cho chính phủ hoặc quân đội.
Do đó, cả chính phủ Mỹ và chính phủ Anh đều bắt đầu cắt tài trợ cho nghiên cứu AI của trường đại học. DARPA, qua đó tài trợ nghiên cứu AI đã được lưu chuyển tự do trong hầu hết những năm 60, giờ đây yêu cầu các đề xuất nghiên cứu đi kèm với các mốc thời gian rõ ràng và mô tả chi tiết về các sản phẩm. Điều đó khiến AI trông giống như một sự thất vọng có thể không bao giờ đạt đến khả năng của con người. Mùa đông đầu tiên của AI đã kéo dài trong suốt thập niên 70 và thập niên 80.
6. MÙA ĐÔNG AI THỨ HAI ĐẾN (1987)
Những năm 1980 đã mở ra với sự phát triển và thành công của các hệ thống chuyên gia của thành phố , nơi lưu trữ lượng lớn kiến thức về miền và mô phỏng việc ra quyết định của các chuyên gia về con người. Công nghệ ban đầu được phát triển bởi Carnegie Mellon cho Tập đoàn thiết bị kỹ thuật số và các tập đoàn đã triển khai công nghệ này một cách nhanh chóng. Nhưng các hệ thống chuyên gia đòi hỏi phần cứng chuyên dụng, đắt tiền, đã trở thành một vấn đề khi các máy trạm của Sun microsystems và máy tính cá nhân của Apple và IBM trở nên có sẵn với sức mạnh tương đương và giá thấp hơn. Thị trường cho các máy tính hệ thống chuyên gia sụp đổ vào năm 1987, với các nhà cung cấp chính của các máy rời khỏi thị trường.
Thành công của các hệ thống chuyên gia vào đầu những năm 80 đã khuyến khích DARPA tăng tiền tài trợ cho nghiên cứu AI, nhưng điều đó đã thay đổi một lần nữa khi cơ quan này lại bóp nghẹt phần lớn tài trợ cho AI cho tất cả trừ một số chương trình được chọn thủ công. Một lần nữa thuật ngữ trí tuệ nhân tạo của người Viking đã trở thành gần như cấm kỵ trong cộng đồng nghiên cứu. Để tránh bị coi là những kẻ mơ mộng không thực tế đang xin tài trợ, các nhà nghiên cứu đã bắt đầu sử dụng các tên khác nhau cho các công việc liên quan đến AI như tin học, tin học máy, phân tích và các phân tích. Mùa đông thứ hai AI AI này đã kéo dài vào những năm 2000.
7. IBM DEEP BLUE ĐÁNH BẠI KASPAROV (1997)
Deep Blue của IBM đã đánh bại người chơi cờ người giỏi nhất thế giới, Gary Kasparov, vào năm 1997. [Ảnh: James the Nhiếp ảnh gia / Wikimedia Commons]
Hồ sơ công khai về trí tuệ nhân tạo đã tăng mạnh vào năm 1997 khi máy tính cờ vua Deep Blue của IBM đánh bại nhà vô địch thế giới lúc bấy giờ Garry Kasparov trong môn cờ vua. Trong một loạt sáu trò chơi được chơi trong một studio truyền hình, Deep Blue đã thắng hai trò chơi, Kasparov thắng một và ba trong số các trò chơi kết thúc với tỷ số hòa. Kasparov đã đánh bại một phiên bản trước đó của Deep Blue một năm trước.
Deep Blue có rất nhiều sức mạnh tính toán, và nó đã sử dụng phương pháp tiếp cận mạnh mẽ của Vương quốc Hồi giáo, đánh giá 200 triệu di chuyển có thể trong một giây để tìm ra phương pháp tốt nhất có thể. Con người có khả năng kiểm tra chỉ khoảng 50 di chuyển mỗi lượt. Hiệu ứng của Deep Blue giống như AI, nhưng máy tính không thực sự nghĩ về chiến lược và học hỏi như đã chơi, như các hệ thống sau này sẽ làm.
Tuy nhiên, chiến thắng của Deep Blue trước Kasparov đã đưa AI trở lại tâm trí công chúng trong thời trang ấn tượng. Một số người đã bị mê hoặc. Những người khác không thoải mái với một cỗ máy đánh bại một người chơi cờ người cấp chuyên gia. Các nhà đầu tư đã rất ấn tượng: Chiến thắng của Deep Blue đã đẩy cổ phiếu của IBM tăng 10 đô la lên mức cao nhất mọi thời đại.
8. MỘT MẠNG LƯỚI THẦN KINH NHÌN THẤY MÈO (2011)
Đến năm 2011, các nhà khoa học tại các trường đại học trên thế giới đã nói về việc tạo ra mạng lưới thần kinh của người Hồi giáo. Năm đó, kỹ sư Google Jeff Dean đã gặp một giáo sư khoa học máy tính Stanford tên là Andrew Ng. Cả hai đã ấp ủ ý tưởng xây dựng một mạng lưới thần kinh lớn, mang lại cho nó sức mạnh tính toán khổng lồ bằng cách sử dụng tài nguyên máy chủ của Google và cung cấp cho nó một bộ dữ liệu khổng lồ về hình ảnh.
Mạng lưới thần kinh mà họ xây dựng đã chạy trên 16.000 bộ xử lý máy chủ. Họ đã cho nó ăn 10 triệu lượt lấy màn hình ngẫu nhiên, không nhãn từ YouTube. Dean và Ng đã không yêu cầu mạng lưới thần kinh đưa ra bất kỳ thông tin cụ thể hoặc gắn nhãn cho các hình ảnh. Khi mạng lưới thần kinh chạy theo kiểu không giám sát này, họ sẽ tự nhiên cố gắng tìm các mẫu trong dữ liệu và phân loại biểu mẫu.
Mạng lưới thần kinh đã xử lý dữ liệu hình ảnh trong ba ngày. Sau đó, nó trả về một đầu ra chứa ba hình ảnh mờ mô tả các mẫu hình ảnh mà nó đã thấy lặp đi lặp lại trong các hình ảnh thử nghiệm, một khuôn mặt người, cơ thể người và một con mèo. Nghiên cứu đó là một bước đột phá lớn trong việc sử dụng mạng lưới thần kinh và học tập không giám sát trong các nhiệm vụ thị giác máy tính. Sự kiện này cũng đánh dấu sự khởi đầu của dự án Google Brain.
9. GEOFFREY HINTON GIẢI PHÓNG MẠNG LƯỚI THẦN KINH SÂU (2012)
Nghiên cứu của Geoffrey Hinton tại Đại học Toronto đã giúp mang lại sự phục hưng trong học tập sâu. [Ảnh: Eviatar Bach / Wikimedia Commons]
Một năm sau sự đột phá của Dean và Ng, giáo sư Geoffrey Hinton của Đại học Toronto và hai sinh viên của ông đã xây dựng một mô hình mạng thần kinh thị giác máy tính có tên AlexNet để cạnh tranh trong một cuộc thi nhận dạng hình ảnh có tên ImageNet . Những người tham gia đã sử dụng hệ thống của họ để xử lý hàng triệu hình ảnh thử nghiệm và xác định chúng với độ chính xác cao nhất có thể. AlexNet đã giành chiến thắng trong cuộc thi với tỷ lệ lỗi ít hơn một nửa so với á quân. Chỉ có 15,3% trường hợp là nhãn chính xác không nằm trong năm câu trả lời có khả năng cao nhất của AlexNet. Điểm tốt nhất trước đó là 26%.
Chiến thắng đã tạo ra một trường hợp mạnh mẽ rằng các mạng thần kinh sâu chạy trên bộ xử lý đồ họa tốt hơn nhiều so với các hệ thống khác trong việc xác định và phân loại chính xác hình ảnh. Điều này, có lẽ nhiều hơn bất kỳ sự kiện đơn lẻ nào khác, đã khởi đầu sự phục hưng hiện tại trong các mạng lưới thần kinh sâu sắc, mang lại cho Hinton biệt danh của cha đỡ đầu của học tập sâu. Cùng với các đồng nghiệp AI, Yoshua Bengio và Yann LeCun , Hinton đã giành giải thưởng Turing đáng thèm muốn cho năm 2018.
10. ALPHAGO ĐÁNH BẠI NHÀ VÔ ĐỊCH CỜ VÂY NGƯỜI (2016)
Quay trở lại năm 2013, các nhà nghiên cứu tại một công ty khởi nghiệp ở Anh có tên DeepMind đã xuất bản một bài báo cho thấy cách họ có thể sử dụng mạng lưới thần kinh để chơi và đánh bại 50 trò chơi Atari cũ. Bị ấn tượng, Google đã chộp lấy công ty với số tiền được báo cáo là 400 triệu đô la. Nhưng ngày vinh quang của DeepMind đã ở phía trước nó.
Vài năm sau, các nhà khoa học của DeepMind, hiện thuộc Google, đã chuyển từ các trò chơi Atari sang một trong những thách thức lâu dài nhất của AI, trò chơi cờ vây của Nhật Bản. Họ đã phát triển một mô hình mạng thần kinh có tên AlphaGo được thiết kế để chơi Go và học bằng cách chơi. Phần mềm này đã chơi hàng ngàn trò chơi so với các phiên bản AlphaGo khác, học hỏi từ cả chiến lược thắng và thua của nó.
Nó đã làm việc. AlphaGo đã đánh bại người chơi cờ vây vĩ đại nhất thế giới, Lee Sedol, bốn trò chơi thành một trong một loạt các trò chơi vào tháng 3 năm 2016. Toàn bộ sự việc đã được ghi lại trong một bộ phim tài liệu . Theo dõi nó, thật khó để bỏ lỡ cảm giác buồn bã khi bị đánh bại. Có vẻ như con người, không chỉ một con người đã bị đánh bại.
Những tiến bộ gần đây trong các mạng lưới thần kinh sâu sắc đã có tác động sâu rộng đến mức câu chuyện thực sự về trí tuệ nhân tạo có thể chỉ mới bắt đầu. Vẫn còn rất nhiều hy vọng, sự cường điệu và thiếu kiên nhẫn, nhưng dường như rõ ràng rằng AI sẽ tác động đến mọi khía cạnh của cuộc sống thế kỷ 21 có thể theo những cách thậm chí còn sâu sắc hơn cả internet.
Nhận xét
Đăng nhận xét