Toàn văn Đối thoại Trung Quốc của Sam Altman: Chúng ta phải cảnh giác với những rủi ro của AI, nhưng hiểu mạng nơ-ron dễ hơn nhiều so với hiểu con người đang nghĩ gì

Tác giả|Neil Shen

Nguồn丨Pinwan

Bài phát biểu của Sam Altman diễn ra tại diễn đàn phụ về An ninh và Liên kết AI của Hội nghị Zhiyuan vào ngày 10 tháng 6. Khung cảnh chật kín chỗ ngồi, khi CEO OpenAI xuất hiện trên màn hình, đã có những tràng pháo tay vang lên và hầu hết mọi người đều giơ điện thoại di động lên để chụp ảnh trên màn hình.

Nhưng bản thân Altman tỏ ra bình tĩnh, thậm chí thận trọng. Đây là lần đầu tiên kể từ khi ChatGPT khuấy động sự bùng nổ AI toàn cầu vào năm ngoái, Sam Altman đã công khai bày tỏ ý kiến của mình về nền tảng Trung Quốc.

Trên thực tế, ngày hôm đó anh cũng ở cách Trung Quốc không xa, vừa đến Seoul và gặp tổng thống Hàn Quốc. Sau bài phát biểu của mình, anh ấy cũng có phần hỏi đáp trực tiếp với Zhang Hongjiang, chủ tịch Viện nghiên cứu Zhiyuan. Sau đây là những điểm chính và sự thật.

Những điểm chính:

Khi chúng ta ngày càng tiến gần hơn đến AGI trong công nghệ, các tác động và cạm bẫy của việc điều chỉnh sai sẽ tăng theo cấp số nhân.

OpenAI hiện đang sử dụng công nghệ học tăng cường phản hồi của con người để đảm bảo rằng các hệ thống AI hữu ích và an toàn, đồng thời cũng đang khám phá các công nghệ mới. Một trong những ý tưởng là sử dụng các hệ thống AI để hỗ trợ con người giám sát các hệ thống AI khác.

Con người sẽ có hệ thống trí tuệ nhân tạo (AI) mạnh mẽ trong vòng mười năm nữa.

OpenAI không có mốc thời gian nguồn mở mới phù hợp và mặc dù ông thừa nhận rằng mô hình nguồn mở có lợi thế khi nói đến sự an toàn của AI, nhưng mọi thứ nguồn mở có thể không phải là con đường tốt nhất.

Việc hiểu một mạng lưới thần kinh dễ dàng hơn nhiều so với bộ não con người.

Trung Quốc có những tài năng trí tuệ nhân tạo tốt nhất và bảo mật AI cần có sự tham gia và đóng góp của các nhà nghiên cứu Trung Quốc.

Sau đây là bản ghi của bài phát biểu:

Hôm nay, tôi muốn nói về tương lai. Cụ thể là tốc độ tăng trưởng mà chúng ta đang thấy trong khả năng của AI. Chúng ta cần làm gì bây giờ để chuẩn bị thế giới một cách có trách nhiệm cho sự ra đời của chúng, lịch sử khoa học đã dạy chúng ta rằng tiến bộ công nghệ tuân theo một đường cong hàm mũ. Chúng ta đã có thể thấy điều này trong lịch sử, từ nông nghiệp và công nghiệp đến cuộc cách mạng điện toán. Điều đáng kinh ngạc về trí tuệ nhân tạo không chỉ là tác động của nó mà còn là tốc độ phát triển của nó. Nó đẩy ranh giới của trí tưởng tượng của con người, và nó làm như vậy với tốc độ chóng mặt.

Hãy tưởng tượng rằng trong thập kỷ tới, các hệ thống thường được gọi là trí tuệ tổng quát nhân tạo (AGI) sẽ vượt qua chuyên môn của con người trong hầu hết mọi lĩnh vực. Những hệ thống này cuối cùng có thể vượt quá năng suất tập thể của các công ty lớn nhất của chúng tôi. Có tiềm năng tăng giá rất lớn đang ẩn nấp ở đây. Cuộc cách mạng AI sẽ tạo ra của cải chung và giúp cải thiện mức sống của mọi người, giải quyết các thách thức chung như biến đổi khí hậu và an ninh y tế toàn cầu, đồng thời cải thiện phúc lợi xã hội theo vô số cách khác.

Tôi tin tưởng mạnh mẽ vào tương lai này và để hiện thực hóa nó cũng như tận hưởng nó, chúng ta cần đầu tư chung vào sự an toàn của AGI và quản lý rủi ro. Nếu chúng ta không cẩn thận, một hệ thống AGI không phù hợp với mục đích có thể làm suy yếu toàn bộ hệ thống chăm sóc sức khỏe bằng cách đưa ra các khuyến nghị vô căn cứ. Tương tự như vậy, một hệ thống AGI được thiết kế để tối ưu hóa các hoạt động nông nghiệp có thể vô tình làm cạn kiệt tài nguyên thiên nhiên hoặc hủy hoại hệ sinh thái, ảnh hưởng đến sản xuất lương thực và cân bằng môi trường do thiếu tính bền vững lâu dài.

Tôi hy vọng tất cả chúng ta có thể đồng ý rằng nâng cao an toàn AGI là một trong những lĩnh vực quan trọng nhất của chúng ta. Tôi muốn tập trung phần còn lại của bài nói chuyện vào nơi mà tôi nghĩ chúng ta có thể bắt đầu.

Một lĩnh vực là quản trị AGI, một công nghệ có ý nghĩa toàn cầu. Cái giá phải trả cho những tai nạn do phát triển và triển khai thiếu thận trọng sẽ ảnh hưởng đến tất cả chúng ta.

Về vấn đề này, có hai yếu tố chính:

Đầu tiên, chúng ta cần thiết lập các quy tắc và tiêu chuẩn quốc tế, đồng thời thông qua một quy trình toàn diện, phát triển các biện pháp bảo vệ bình đẳng và thống nhất đối với việc sử dụng AGI ở tất cả các quốc gia. Trong phạm vi các biện pháp bảo vệ này, chúng tôi tin rằng mọi người có nhiều cơ hội để đưa ra lựa chọn của riêng mình.

Thứ hai, chúng ta cần hợp tác quốc tế để xây dựng niềm tin toàn cầu vào sự phát triển an toàn của các hệ thống AI ngày càng mạnh mẽ, theo cách có thể kiểm chứng. Đây không phải là một nhiệm vụ dễ dàng. Chúng ta cần sự quan tâm lâu dài và quan trọng của cộng đồng quốc tế để làm tốt điều này. Đạo Đức Kinh nhắc nhở chúng ta rằng một cuộc hành trình ngàn dặm bắt đầu bằng một bước duy nhất. Chúng tôi nghĩ rằng bước đầu tiên mang tính xây dựng nhất cần thực hiện ở đây là hợp tác với cộng đồng công nghệ quốc tế.

Đặc biệt, chúng ta nên thúc đẩy các cơ chế để tăng tính minh bạch và chia sẻ kiến thức về những tiến bộ công nghệ trong an toàn AGI. Các nhà nghiên cứu phát hiện ra các vấn đề bảo mật mới nổi nên chia sẻ hiểu biết của họ vì lợi ích lớn hơn. Chúng ta cần suy nghĩ cẩn thận về cách chúng ta có thể khuyến khích những chuẩn mực như vậy đồng thời tôn trọng và bảo vệ quyền sở hữu trí tuệ.

Nếu chúng ta làm tốt điều này, nó sẽ mở ra những cánh cửa mới để chúng ta hợp tác sâu rộng hơn. Nói rộng hơn, chúng ta nên đầu tư, tạo điều kiện và đầu tư trực tiếp vào nghiên cứu bảo mật và nhắm mục tiêu.

Tại OpenAI, nghiên cứu có mục tiêu của chúng tôi hôm nay tập trung vào các câu hỏi kỹ thuật về cách để các hệ thống AI hoạt động như những trợ lý hữu ích và an toàn trong các hệ thống hiện tại của chúng tôi. Điều này có thể có nghĩa là chúng tôi đào tạo ChatGPT như thế nào để ChatGPT không tạo ra các mối đe dọa bạo lực hoặc hỗ trợ người dùng trong các hoạt động có hại.

Nhưng khi chúng ta tiến gần hơn đến AGI, tác động tiềm ẩn và mức độ nghiêm trọng của bất kỳ hành vi không tuân thủ nào sẽ tăng theo cấp số nhân. Để giải quyết những thách thức này trước thời hạn, chúng tôi cố gắng giảm thiểu rủi ro dẫn đến hậu quả thảm khốc trong tương lai. Đối với hệ thống hiện tại, chúng tôi chủ yếu sử dụng phương pháp học tăng cường từ phản hồi của con người để huấn luyện mô hình của mình hoạt động như một trợ lý hữu ích và an toàn.

Đây là một ví dụ về kỹ thuật nhắm mục tiêu sau đào tạo và chúng tôi cũng đang bận phát triển những kỹ thuật mới. Phải mất rất nhiều công việc kỹ thuật khó khăn để làm tốt điều này. Chúng tôi đã mất 8 tháng để làm điều này kể từ khi GPT-4 hoàn thành quá trình đào tạo trước cho đến khi triển khai nó. Nhìn chung, chúng tôi nghĩ rằng chúng tôi đang đi đúng hướng ở đây. GPT-4 phù hợp với mục tiêu hơn bất kỳ mẫu nào trước đây của chúng tôi.

Tuy nhiên, nhắm mục tiêu vẫn là một vấn đề mở đối với các hệ thống tiên tiến hơn, mà chúng tôi tin rằng sẽ yêu cầu các phương pháp kỹ thuật mới, cũng như quản trị và giám sát nhiều hơn. Hãy tưởng tượng một hệ thống AGI tương lai có 100.000 dòng mã nhị phân. Những người giám sát con người khó có thể phát hiện ra nếu một mô hình như vậy đang làm điều gì đó bất chính.

Vì vậy, chúng tôi đang đầu tư vào một số hướng nghiên cứu mới và bổ sung mà chúng tôi hy vọng sẽ dẫn đến những bước đột phá. Một là giám sát có thể mở rộng. Chúng ta có thể thử sử dụng các hệ thống AI để hỗ trợ con người giám sát các hệ thống AI khác. Ví dụ: chúng ta có thể đào tạo một mô hình để giúp người giám sát con người phát hiện ra các sai sót trong đầu ra của các mô hình khác. Thứ hai là khả năng diễn giải. Chúng tôi muốn cố gắng hiểu rõ hơn những gì đang diễn ra bên trong những mô hình này.

Gần đây, chúng tôi đã xuất bản một bài báo sử dụng GPT-4 để diễn giải các nơ-ron trong GPT-2. Trong một bài báo khác, chúng tôi sử dụng phần bên trong mô hình để phát hiện khi mô hình nói dối. Mặc dù chúng tôi vẫn còn một chặng đường dài phía trước, nhưng chúng tôi tin rằng các kỹ thuật học máy tiên tiến có thể cải thiện hơn nữa khả năng tạo ra lời giải thích của chúng tôi.

Cuối cùng, mục tiêu của chúng tôi là đào tạo các hệ thống AI để hỗ trợ nghiên cứu mục tiêu. Một khía cạnh đầy hứa hẹn của phương pháp này là nó mở rộng quy mô theo tốc độ phát triển của AI. Khi các mô hình trong tương lai trở nên thông minh hơn và hữu ích hơn với vai trò trợ lý, chúng ta sẽ tìm ra các kỹ thuật tốt hơn để nhận ra những lợi ích phi thường của AGI đồng thời giảm thiểu rủi ro, một trong những thách thức quan trọng nhất của thời đại chúng ta.

Sau đây là bản ghi của cuộc trò chuyện:

Trương Hồng Giang: Chúng ta còn cách trí tuệ nhân tạo bao xa? Là rủi ro khẩn cấp, hay chúng ta còn xa nó? Cho dù đó là AI an toàn hay AI có khả năng không an toàn.

Sam Altman: Vấn đề này rất khó dự đoán chính xác vì nó đòi hỏi những ý tưởng nghiên cứu mới không phải lúc nào cũng phát triển theo lịch trình đã định. Nó có thể xảy ra nhanh chóng, hoặc có thể mất nhiều thời gian hơn. Tôi nghĩ thật khó để dự đoán với bất kỳ mức độ chắc chắn nào. Nhưng tôi nghĩ rằng trong thập kỷ tới, chúng ta có thể có những hệ thống AI rất mạnh. Trong một thế giới như vậy, tôi nghĩ rằng điều quan trọng và cấp bách là phải giải quyết vấn đề này, đó là lý do tại sao tôi kêu gọi cộng đồng quốc tế cùng hợp tác để giải quyết vấn đề này. Lịch sử cho chúng ta một số ví dụ về các công nghệ mới đang thay đổi thế giới nhanh hơn nhiều người tưởng tượng. Tác động và sự tăng tốc của các hệ thống này mà chúng ta đang thấy hiện nay theo một nghĩa nào đó chưa từng có. Vì vậy, tôi nghĩ rằng sẽ rất hợp lý khi chuẩn bị cho điều đó xảy ra càng sớm càng tốt và giải quyết các khía cạnh bảo mật, xét đến tác động và tầm quan trọng của chúng.

Zhang Hongjiang: Bạn có cảm thấy khẩn cấp không?

Sam Altman: Vâng, tôi cảm thấy nó. Tôi muốn nhấn mạnh rằng chúng ta không thực sự biết. Và định nghĩa về trí tuệ nhân tạo là khác nhau, nhưng tôi nghĩ trong mười năm nữa, chúng ta nên sẵn sàng cho một thế giới với những hệ thống rất mạnh mẽ.

Zhang Hongjiang: Bạn cũng đã đề cập đến một số hợp tác toàn cầu trong bài phát biểu của mình vừa rồi. Chúng tôi biết rằng thế giới đã phải đối mặt với nhiều cuộc khủng hoảng trong sáu hoặc bảy thập kỷ qua. Nhưng đối với nhiều cuộc khủng hoảng trong số này, chúng tôi đã xoay sở để xây dựng sự đồng thuận và hợp tác toàn cầu. Bạn cũng đang trong một chuyến du lịch toàn cầu. Bạn đang thúc đẩy loại hợp tác toàn cầu nào? Bạn cảm thấy thế nào về phản hồi bạn đã nhận được cho đến nay?

Sam Altman: Vâng, tôi rất hài lòng với phản hồi mà tôi đã nhận được cho đến nay. Tôi nghĩ mọi người đang rất coi trọng những rủi ro và cơ hội do AI mang lại. Tôi nghĩ rằng cuộc thảo luận về điều này đã đi một chặng đường dài trong sáu tháng qua. Mọi người đang thực sự làm việc để tìm ra một khuôn khổ mà chúng ta có thể tận hưởng những lợi ích này trong khi làm việc cùng nhau để giảm thiểu rủi ro. Tôi nghĩ rằng chúng tôi đang ở một vị trí rất tốt để làm điều đó. Hợp tác toàn cầu luôn khó khăn, nhưng tôi coi đó là cơ hội và cũng là mối đe dọa có thể mang thế giới lại gần nhau. Sẽ rất hữu ích nếu chúng ta có thể phát triển một số khuôn khổ và tiêu chuẩn bảo mật để hướng dẫn sự phát triển của các hệ thống này.

Zhang Hongjiang: Về chủ đề cụ thể này, bạn đã đề cập rằng sự liên kết của các hệ thống trí tuệ nhân tạo tiên tiến là một vấn đề chưa được giải quyết. Tôi cũng nhận thấy rằng Open AI đã nỗ lực rất nhiều trong vài năm qua. Bạn cũng đã đề cập đến GPT-4 như một ví dụ tốt nhất về sự liên kết. Bạn có nghĩ rằng chúng ta có thể giải quyết các vấn đề về an toàn AI thông qua sự liên kết không? Hay vấn đề này lớn hơn sự liên kết?

Sam Altman: Tôi nghĩ rằng có nhiều cách sử dụng khác nhau của từ căn chỉnh. Tôi nghĩ những gì chúng ta cần giải quyết là toàn bộ thách thức về cách đạt được các hệ thống AI an toàn. Căn chỉnh theo truyền thống là làm cho mô hình hoạt động như ý định của người dùng và đó chắc chắn là một phần của nó. Nhưng có những câu hỏi khác mà chúng tôi cần trả lời, chẳng hạn như cách chúng tôi xác minh rằng các hệ thống làm những gì chúng tôi muốn chúng làm và những giá trị mà chúng tôi sắp xếp các hệ thống. Nhưng tôi nghĩ điều quan trọng là phải nhìn thấy bức tranh đầy đủ về những gì cần thiết để đạt được AI an toàn.

Zhang Hongjiang: Vâng, sự liên kết vẫn là trường hợp. Nếu chúng ta nhìn vào những gì GPT-4 đã làm, phần lớn vẫn là từ quan điểm kỹ thuật. Nhưng còn nhiều yếu tố khác ngoài công nghệ. Đây là một câu hỏi rất phức tạp. Thường những vấn đề phức tạp mang tính hệ thống. Bảo mật AI có thể không phải là ngoại lệ. Bên cạnh các khía cạnh kỹ thuật, bạn nghĩ những yếu tố và vấn đề nào khác là quan trọng đối với sự an toàn của AI? Chúng ta nên ứng phó với những thách thức này như thế nào? Đặc biệt là vì hầu hết chúng ta đều là nhà khoa học, chúng ta phải làm gì?

Sam Altman: Tất nhiên đây là một câu hỏi rất phức tạp. Tôi có thể nói rằng không có giải pháp kỹ thuật thì mọi thứ khác đều khó khăn. Tôi nghĩ rằng điều thực sự quan trọng là phải tập trung nhiều vào việc đảm bảo rằng chúng tôi giải quyết các khía cạnh kỹ thuật của bảo mật. Như tôi đã đề cập, việc tìm ra những giá trị mà chúng tôi muốn căn chỉnh hệ thống không phải là vấn đề kỹ thuật. Nó cần đầu vào kỹ thuật, nhưng nó là một vấn đề cần thảo luận sâu rộng của toàn xã hội. Chúng ta phải thiết kế các hệ thống công bằng, đại diện và toàn diện. Và, như bạn đã chỉ ra, chúng tôi không chỉ xem xét tính bảo mật của chính mô hình AI mà còn tính bảo mật của toàn bộ hệ thống. Vì vậy, điều quan trọng là phải xây dựng các trình phát hiện và phân loại bảo mật có thể chạy trên mô hình và có thể giám sát việc tuân thủ các chính sách sử dụng. Và sau đó, tôi cũng nghĩ rằng thật khó để dự đoán trước điều gì sẽ xảy ra với bất kỳ công nghệ nào. Vì vậy, hãy học hỏi từ thế giới thực và triển khai lặp đi lặp lại, xem điều gì sẽ xảy ra khi bạn đưa mô hình vào thế giới thực và cải thiện nó, đồng thời cho mọi người và xã hội thời gian để tìm hiểu và cập nhật, đồng thời suy nghĩ về cách những mô hình này sẽ được sử dụng cho mục đích tốt và ảnh hưởng xấu đến cuộc sống của họ. Điều này cũng rất quan trọng.

Zhang Hongjiang: Bạn vừa đề cập đến hợp tác toàn cầu. Bạn đã đến thăm nhiều quốc gia và bạn đã đề cập đến Trung Quốc. Nhưng bạn có thể chia sẻ một số kết quả bạn đã đạt được về mặt hợp tác? Bạn có kế hoạch hoặc ý tưởng gì cho các bước tiếp theo? Từ chuyến du lịch thế giới này, từ sự tương tác của bạn với các chính phủ, tổ chức, tổ chức khác nhau?

Sam Altman: Tôi nghĩ rằng nhìn chung cần có nhiều quan điểm khác nhau và sự an toàn của AI. Chúng tôi chưa có tất cả các câu trả lời và đây là một câu hỏi khá khó và quan trọng.

Ngoài ra, như đã đề cập, việc làm cho AI trở nên an toàn và có lợi không phải là một câu hỏi thuần túy kỹ thuật. Liên quan đến việc hiểu sở thích của người dùng ở các quốc gia khác nhau trong các bối cảnh rất khác nhau. Chúng tôi cần rất nhiều đầu vào khác nhau để thực hiện điều này. Trung Quốc có một số tài năng AI tốt nhất trên thế giới. Về cơ bản, tôi nghĩ rằng cần có những bộ óc tốt nhất từ khắp nơi trên thế giới để giải quyết khó khăn trong việc điều chỉnh các hệ thống AI tiên tiến. Vì vậy, tôi thực sự hy vọng rằng các nhà nghiên cứu AI của Trung Quốc có thể có những đóng góp to lớn ở đây.

Zhang Hongjiang: Tôi hiểu rằng diễn đàn hôm nay là về an toàn AI, bởi vì mọi người rất tò mò về OpenAI, vì vậy tôi có rất nhiều câu hỏi về OpenAI, không chỉ về an toàn AI. Tôi có một câu hỏi dành cho khán giả ở đây, đó là OpenAI có kế hoạch nào để mở lại nguồn các mô hình của nó giống như trước phiên bản 3.0 không? Tôi cũng nghĩ nguồn mở tốt cho sự an toàn của AI.

Sam Altman: Một số mô hình của chúng tôi là nguồn mở và một số thì không, nhưng khi thời gian trôi qua, tôi nghĩ bạn nên kỳ vọng chúng tôi sẽ tiếp tục mở nhiều mô hình hơn nữa trong tương lai. Tôi không có một mô hình hoặc dòng thời gian cụ thể, nhưng đó là điều mà chúng tôi đang thảo luận ngay bây giờ.

Zhang Hongjiang: Chúng tôi dồn mọi nỗ lực vào nguồn mở, bao gồm bản thân mô hình, các thuật toán để phát triển mô hình và các công cụ để tối ưu hóa mối quan hệ giữa mô hình và dữ liệu. Chúng tôi tin vào nhu cầu chia sẻ và khiến người dùng cảm thấy kiểm soát được những gì họ sử dụng. Bạn có phản hồi tương tự? Hay đây là những gì các bạn đang thảo luận trong OpenAI?

Sam Altman: Vâng, tôi nghĩ nguồn mở có một vai trò quan trọng theo một cách nào đó. Gần đây cũng có rất nhiều mô hình mã nguồn mở mới xuất hiện. Tôi nghĩ rằng mô hình API cũng có một vai trò quan trọng. Nó cung cấp cho chúng tôi các biện pháp kiểm soát bảo mật bổ sung. Bạn có thể chặn một số mục đích sử dụng. Bạn có thể chặn một số loại chỉnh sửa. Nếu một cái gì đó không hoạt động, bạn có thể lấy lại. Ở quy mô của mô hình hiện tại, tôi không quá lo lắng về điều đó. Nhưng khi mô hình này trở nên mạnh mẽ như chúng ta mong đợi, nếu chúng ta đúng về nó, tôi nghĩ nguồn mở mọi thứ có thể không phải là con đường tốt nhất, mặc dù đôi khi nó đúng. Tôi nghĩ chúng ta chỉ cần cân bằng nó một cách cẩn thận.

Zhang Hongjiang: Câu hỏi tiếp theo về bảo mật GPT-4 và AI là chúng ta có cần thay đổi toàn bộ cơ sở hạ tầng hoặc kiến trúc của toàn bộ mô hình AGI để giúp kiểm tra an toàn và dễ dàng hơn không? Bạn nghĩ gì về điều này?

Sam Altman: Chắc chắn là có thể, chúng tôi cần một số kiến trúc rất khác, cả về khả năng và bảo mật. Tôi nghĩ rằng chúng ta sẽ có thể đạt được một số tiến bộ về khả năng giải thích, trên các loại mô hình hiện tại và để họ giải thích rõ hơn cho chúng ta về những gì họ đang làm và tại sao. Nhưng tôi sẽ không ngạc nhiên nếu có một bước nhảy vọt khác sau máy biến thế. Và thực sự chúng ta đã ở trong máy biến áp ban đầu, kiến trúc đã thay đổi rất nhiều.

Zhang Hongjiang: Là một nhà nghiên cứu, tôi cũng rất tò mò, hướng nghiên cứu AGI tiếp theo là gì? Về mô hình lớn, mô hình ngôn ngữ lớn, chúng ta sẽ sớm thấy GPT-5? Là biên giới tiếp theo trong các mô hình hiện thân? Người máy tự động có phải là một lĩnh vực mà OpenAI đang hoặc có kế hoạch khám phá không?

Sam Altman: Tôi cũng tò mò về điều gì sẽ xảy ra tiếp theo, và một trong những điều yêu thích của tôi khi làm công việc này là có rất nhiều hứng thú và ngạc nhiên ở khía cạnh tiên tiến của nghiên cứu. Chúng tôi chưa có câu trả lời, vì vậy chúng tôi đang khám phá nhiều mô hình mới khả thi. Tất nhiên, tại một thời điểm nào đó, chúng tôi sẽ cố gắng thực hiện mô hình GPT-5, nhưng sẽ không sớm. Chúng tôi không biết chính xác khi nào. Chúng tôi đã nghiên cứu về người máy kể từ khi OpenAI bắt đầu và chúng tôi rất quan tâm đến nó, nhưng chúng tôi đã gặp một số khó khăn. Tôi hy vọng một ngày nào đó chúng ta có thể quay trở lại lĩnh vực này.

Trương Hồng Giang: Nghe hay đấy. Bạn cũng đã đề cập trong phần trình bày của mình cách bạn sử dụng GPT-4 để giải thích cách thức hoạt động của GPT-2, giúp mô hình trở nên an toàn hơn. Phương pháp này có thể mở rộng được không? Đây có phải là hướng OpenAI sẽ tiếp tục phát triển trong tương lai?

Sam Altman: Chúng tôi sẽ tiếp tục thúc đẩy theo hướng này.

Zhang Hongjiang: Bạn có nghĩ rằng phương pháp này có thể được áp dụng cho tế bào thần kinh sinh học? Sở dĩ tôi đặt câu hỏi này là vì có một số nhà sinh vật học và thần kinh học muốn mượn phương pháp này để nghiên cứu và khám phá cách thức hoạt động của tế bào thần kinh con người trong lĩnh vực của họ.

Sam Altman: Việc quan sát những gì đang diễn ra trên tế bào thần kinh nhân tạo dễ dàng hơn nhiều so với tế bào thần kinh sinh học. Vì vậy, tôi nghĩ rằng phương pháp này có giá trị đối với các mạng thần kinh nhân tạo. Tôi nghĩ rằng có một cách để sử dụng các mô hình mạnh mẽ hơn để giúp chúng ta hiểu các mô hình khác. Nhưng tôi không chắc bạn sẽ áp dụng phương pháp này như thế nào đối với bộ não con người.

Zhang Hongjiang: OK, cảm ơn bạn. Bây giờ chúng ta đã nói về sự an toàn của AI và kiểm soát AGI, một trong những câu hỏi mà chúng ta đang thảo luận là liệu sẽ an toàn hơn nếu chỉ có ba mô hình trên thế giới? Nó giống như kiểm soát hạt nhân, bạn không muốn vũ khí hạt nhân phổ biến. Chúng tôi có hiệp ước này, nơi chúng tôi cố gắng kiểm soát số lượng quốc gia có thể có được công nghệ này. Vậy khống chế số lượng người mẫu có phải là hướng đi khả thi?

Sam Altman: Tôi nghĩ rằng có nhiều ý kiến khác nhau về việc liệu mô hình thiểu số hay mô hình đa số sẽ an toàn hơn trên thế giới. Tôi nghĩ điều quan trọng hơn là chúng ta có một hệ thống mà bất kỳ mô hình mạnh mẽ nào cũng được kiểm tra đầy đủ về độ an toàn không? Chúng ta có một khuôn khổ trong đó bất kỳ ai tạo ra một mô hình đủ mạnh đều có cả tài nguyên và trách nhiệm để đảm bảo rằng những gì họ tạo ra là an toàn và phù hợp không?

Zhang Hongjiang: Tại cuộc họp ngày hôm qua, Giáo sư Max của Viện Tương lai Cuộc sống MIT đã đề cập đến một phương pháp khả thi, tương tự như cách chúng ta kiểm soát sự phát triển của thuốc. Khi các nhà khoa học hoặc công ty phát triển các loại thuốc mới, bạn không thể trực tiếp tiếp thị chúng. Bạn phải trải qua quá trình thử nghiệm này. Đây có phải là một cái gì đó chúng ta có thể học hỏi từ?

Sam Altman: Tôi chắc chắn nghĩ rằng chúng ta có thể học được nhiều điều từ các khuôn khổ cấp phép và thử nghiệm đã được phát triển trong các ngành khác nhau. Nhưng tôi nghĩ về cơ bản chúng ta có thứ gì đó có thể hoạt động.

Zhang Hongjiang: Cảm ơn Sam rất nhiều. Cảm ơn bạn đã dành thời gian để tham dự cuộc họp này, mặc dù ảo. Tôi chắc rằng còn nhiều câu hỏi nữa, nhưng đã đến lúc, chúng ta phải dừng lại ở đây. Tôi hy vọng rằng lần sau bạn có cơ hội đến Trung Quốc, đến Bắc Kinh, chúng ta có thể thảo luận sâu hơn. Cảm ơn rất nhiều.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)