النص الكامل لـ Sam Altman's China Dialogue: يجب أن نكون متيقظين لمخاطر الذكاء الاصطناعي ، لكن فهم الشبكات العصبية أسهل بكثير من فهم ما يفكر فيه الناس

** المؤلف | نيل شين **

** المصدر 丨 ** Pinwan

أُلقي خطاب سام التمان في المنتدى الفرعي لأمن الذكاء الاصطناعي والمحاذاة لمؤتمر تشيوان في 10 يونيو. كان المشهد مليئًا بالمقاعد ، وعندما ظهر الرئيس التنفيذي لشركة OpenAI على الشاشة ، كان هناك تصفيق ، ورفع الجميع تقريبًا هواتفهم المحمولة لالتقاط الصور على الشاشة.

لكن يبدو ألتمان نفسه هادئًا ، بل وحذرًا. هذه هي المرة الأولى منذ أن أثارت ChatGPT طفرة الذكاء الاصطناعي العالمية العام الماضي التي عبر فيها Sam Altman علنًا عن آرائه على خلفية صينية.

في الواقع ، لم يكن بعيدًا عن الصين في ذلك اليوم ، فقد وصل لتوه إلى سيول والتقى بالرئيس الكوري الجنوبي. بعد خطابه ، أجرى أيضًا سؤال وجواب مع Zhang Hongjiang ، رئيس معهد Zhiyuan للأبحاث. فيما يلي النقاط والحقائق الأساسية.

النقاط الرئيسية:

كلما اقتربنا أكثر فأكثر من الذكاء الاصطناعي العام في التكنولوجيا ، ستزداد آثار ومخاطر عدم المحاذاة بشكل كبير.

تستخدم OpenAI حاليًا تقنية التعلم التعزيزي للتغذية المرتدة البشرية لضمان أن تكون أنظمة الذكاء الاصطناعي مفيدة وآمنة ، كما أنها تستكشف تقنيات جديدة.تتمثل إحدى الأفكار في استخدام أنظمة الذكاء الاصطناعي لمساعدة البشر في الإشراف على أنظمة الذكاء الاصطناعي الأخرى.

سيكون لدى البشر أنظمة ذكاء اصطناعي قوية (AI) في غضون عشر سنوات.

لا يوجد لدى OpenAI جدول زمني جديد مفتوح المصدر ذي صلة ، وبينما يقر بأن نموذج المصدر المفتوح له مزايا عندما يتعلق الأمر بسلامة الذكاء الاصطناعي ، قد لا يكون كل شيء مفتوح المصدر هو أفضل طريق.

إن فهم الشبكة العصبية أسهل بكثير من فهم الدماغ البشري.

تمتلك الصين أفضل مواهب الذكاء الاصطناعي ، ويتطلب أمن الذكاء الاصطناعي مشاركة ومساهمة الباحثين الصينيين.

فيما يلي نص الخطاب:

اليوم أريد أن أتحدث عن المستقبل. على وجه التحديد ، معدل النمو الذي نراه في قدرات الذكاء الاصطناعي. ما الذي يتعين علينا القيام به الآن لإعداد العالم بشكل مسؤول لتقديمهم ، لقد علمنا تاريخ العلم أن التقدم التكنولوجي يتبع منحنىًا أسيًا. يمكننا أن نرى هذا بالفعل في التاريخ ، من الزراعة والصناعة إلى ثورة الحوسبة. ما يذهل الذكاء الاصطناعي ليس فقط تأثيره ، ولكن أيضًا سرعة تقدمه. إنه يدفع حدود الخيال البشري ، ويفعل ذلك بوتيرة سريعة.

تخيل أنه خلال العقد القادم ، ستتجاوز الأنظمة التي يشار إليها عادةً باسم الذكاء الاصطناعي العام (AGI) الخبرة البشرية في كل مجال تقريبًا. يمكن أن تتجاوز هذه الأنظمة في النهاية الإنتاجية الجماعية لشركاتنا الكبرى. هناك إمكانات صعودية هائلة كامنة هنا. ستخلق ثورة الذكاء الاصطناعي ثروة مشتركة وستجعل من الممكن تحسين مستوى معيشة الجميع ، ومعالجة التحديات المشتركة مثل تغير المناخ والأمن الصحي العالمي ، وتحسين الرفاهية المجتمعية بطرق أخرى لا حصر لها.

أنا أؤمن بشدة بهذا المستقبل ، ومن أجل تحقيقه والاستمتاع به ، نحتاج إلى الاستثمار الجماعي في سلامة الذكاء الاصطناعي العام وإدارة المخاطر. إذا لم نكن حذرين ، فإن نظام الذكاء الاصطناعي العام غير المناسب للغرض يمكن أن يقوض نظام الرعاية الصحية بأكمله من خلال تقديم توصيات لا أساس لها. وبالمثل ، فإن نظام الذكاء الاصطناعي العام المصمم لتحسين الممارسات الزراعية قد يؤدي عن غير قصد إلى استنفاد الموارد الطبيعية أو إتلاف النظم البيئية ، مما يؤثر على إنتاج الغذاء والتوازن البيئي بسبب عدم مراعاة الاستدامة على المدى الطويل.

آمل أن نتفق جميعًا على أن النهوض بسلامة الذكاء الاصطناعي العام هو أحد أهم مجالاتنا. أريد أن أركز بقية حديثي على المكان الذي أعتقد أنه يمكننا أن نبدأ فيه.

أحد المجالات هو إدارة الذكاء الاصطناعي العام ، وهي تقنية لها آثار عالمية. ستؤثر علينا جميعًا تكلفة الحوادث الناتجة عن عمليات التطوير والنشر المتهورة.

في هذا الصدد ، هناك عنصران رئيسيان:

أولاً ، نحتاج إلى وضع قواعد ومعايير دولية ، ومن خلال عملية شاملة ، تطوير حماية متساوية وموحدة لاستخدام الذكاء الاصطناعي العام في جميع البلدان. ضمن وسائل الحماية هذه ، نعتقد أن الناس لديهم فرصة كبيرة لاتخاذ خياراتهم بأنفسهم.

ثانيًا ، نحن بحاجة إلى تعاون دولي لبناء ثقة عالمية في التطوير الآمن لأنظمة الذكاء الاصطناعي المتزايدة القوة ، بطريقة يمكن التحقق منها. هذه ليست مهمة سهلة. نحن بحاجة إلى اهتمام مستمر وحاسم مثل المجتمع الدولي للقيام بذلك بشكل جيد. يذكرنا Tao Te Ching أن رحلة الألف ميل تبدأ بخطوة واحدة. نعتقد أن الخطوة الأولى البناءة التي يجب اتخاذها هنا هي العمل مع مجتمع التكنولوجيا الدولي.

على وجه الخصوص ، يجب علينا تعزيز آليات زيادة الشفافية ومشاركة المعرفة فيما يتعلق بالتقدم التكنولوجي في مجال أمان الذكاء الاصطناعي العام. يجب على الباحثين الذين يكتشفون المشكلات الأمنية الناشئة مشاركة رؤاهم من أجل الصالح العام. نحن بحاجة إلى التفكير مليًا في الكيفية التي يمكننا بها تشجيع مثل هذه القواعد مع احترام حقوق الملكية الفكرية وحمايتها.

إذا فعلنا ذلك بشكل جيد ، فسوف يفتح لنا أبواباً جديدة لتعميق تعاوننا. على نطاق أوسع ، يجب علينا الاستثمار في الاستثمار في الاستهداف والبحث الأمني وتسهيله وتوجيهه.

في OpenAI ، يركز بحثنا المستهدف اليوم على الأسئلة التقنية حول كيفية جعل أنظمة الذكاء الاصطناعي تعمل كمساعدات مفيدة وآمنة في أنظمتنا الحالية. قد يعني هذا ، كيف نقوم بتدريب ChatGPT بحيث لا يوجه تهديدات بالعنف أو يساعد المستخدمين في الأنشطة الضارة.

ولكن مع اقترابنا من الذكاء الاصطناعي العام ، سينمو التأثير والحجم المحتمل لأي حالة عدم امتثال بشكل كبير. لمواجهة هذه التحديات في وقت مبكر ، نحن نسعى جاهدين لتقليل مخاطر النتائج المستقبلية الكارثية. بالنسبة للنظام الحالي ، نستخدم في المقام الأول التعلم التعزيزي من ردود الفعل البشرية لتدريب نموذجنا ليكون بمثابة مساعد مفيد وآمن.

هذا مثال على أسلوب هدف ما بعد التدريب ، ونحن منشغلون أيضًا في تطوير تقنيات جديدة. يتطلب الأمر الكثير من العمل الهندسي الشاق للقيام بذلك بشكل جيد. لقد استغرقنا 8 أشهر للقيام بذلك من الوقت الذي أنهى فيه GPT-4 التدريب المسبق لنشره. بشكل عام ، نعتقد أننا نسير على الطريق الصحيح هنا. يناسب GPT-4 الهدف بشكل أفضل من أي من طرزنا السابقة.

ومع ذلك ، لا يزال الاستهداف يمثل مشكلة مفتوحة للأنظمة الأكثر تقدمًا ، والتي نعتقد أنها ستتطلب مناهج تقنية جديدة ، فضلاً عن مزيد من الحوكمة والرقابة. تخيل نظام AGI المستقبلي يأتي مع 100000 سطر من التعليمات البرمجية الثنائية. من غير المرجح أن يكتشف المشرفون البشريون ما إذا كان مثل هذا النموذج يفعل شيئًا شائنًا.

لذلك نحن نستثمر في بعض الاتجاهات البحثية الجديدة والتكميلية التي نأمل أن تؤدي إلى اختراقات. الأول هو إشراف قابل للتطوير. يمكننا محاولة استخدام أنظمة الذكاء الاصطناعي لمساعدة البشر في الإشراف على أنظمة الذكاء الاصطناعي الأخرى. على سبيل المثال ، يمكننا تدريب نموذج لمساعدة المشرفين البشريين على اكتشاف العيوب في إخراج النماذج الأخرى. والثاني هو القابلية للتفسير. أردنا محاولة فهم ما يحدث داخل هذه النماذج بشكل أفضل.

نشرنا مؤخرًا بحثًا باستخدام GPT-4 لتفسير الخلايا العصبية في GPT-2. في ورقة أخرى ، نستخدم نماذج داخلية لاكتشاف متى يكون النموذج كاذبًا. بينما لا يزال أمامنا طريق طويل لنقطعه ، نعتقد أن تقنيات التعلم الآلي المتقدمة يمكن أن تزيد من تحسين قدرتنا على إنشاء تفسيرات.

في النهاية ، هدفنا هو تدريب أنظمة الذكاء الاصطناعي للمساعدة في استهداف البحث نفسه. أحد الجوانب الواعدة لهذا النهج هو أنه يتماشى مع وتيرة تطوير الذكاء الاصطناعي. نظرًا لأن النماذج المستقبلية أصبحت أكثر ذكاءً وفائدة كمساعدين ، فسنجد تقنيات أفضل تحقق الفوائد غير العادية للذكاء الاصطناعي العام مع تخفيف المخاطر ، وهو أحد أهم التحديات في عصرنا.

فيما يلي نص المحادثة:

Zhang Hongjiang: إلى أي مدى نحن بعيدون عن الذكاء الاصطناعي؟ هل الخطر مُلح أم أننا بعيدون عنه؟ سواء كان ذكاءً اصطناعيًا آمنًا أو ذكاءً اصطناعيًا غير آمن.

سام التمان: يصعب التنبؤ بهذه المشكلة بدقة لأنها تتطلب أفكارًا بحثية جديدة لا تتطور دائمًا وفقًا للجدول الزمني المحدد. يمكن أن يحدث بسرعة ، أو قد يستغرق وقتًا أطول. أعتقد أنه من الصعب التنبؤ بأي درجة من اليقين. لكنني أعتقد أنه خلال العقد القادم ، قد يكون لدينا أنظمة ذكاء اصطناعي قوية جدًا. في عالم كهذا ، أعتقد أنه من المهم والملح حل هذه المشكلة ، ولهذا أدعو المجتمع الدولي إلى العمل معًا لحل هذه المشكلة. يعطينا التاريخ بعض الأمثلة على التقنيات الجديدة التي تغير العالم بشكل أسرع مما يتخيله الكثيرون. تأثير وتسريع هذه الأنظمة الذي نراه الآن هو بمعنى غير مسبوق. لذلك أعتقد أنه من المنطقي جدًا أن تكون مستعدًا لحدوث ذلك في أسرع وقت ممكن ، ومعالجة الجوانب الأمنية ، نظرًا لتأثيرها وأهميتها.

تشانغ هونغ جيانغ: هل تشعر بالإلحاح؟

سام التمان: نعم ، أشعر بذلك. أريد أن أؤكد أننا لا نعرف حقًا. وتعريف الذكاء الاصطناعي مختلف ، لكنني أعتقد أنه في غضون عشر سنوات ، يجب أن نكون مستعدين لعالم به أنظمة قوية للغاية.

Zhang Hongjiang: لقد ذكرت أيضًا العديد من التعاون العالمي في خطابك الآن. نحن نعلم أن العالم واجه العديد من الأزمات في العقود الستة أو السبعة الماضية. لكن بالنسبة للعديد من هذه الأزمات ، تمكنا من بناء توافق وتعاون عالمي. أنت أيضًا في جولة عالمية. ما نوع التعاون العالمي الذي تروج له؟ ما هو شعورك حيال التعليقات التي تلقيتها حتى الآن؟

سام التمان: نعم ، أنا سعيد جدًا بالردود التي تلقيتها حتى الآن. أعتقد أن الناس يأخذون المخاطر والفرص التي يوفرها الذكاء الاصطناعي على محمل الجد. أعتقد أن المناقشة حول هذا قد قطعت شوطا طويلا في الأشهر الستة الماضية. يعمل الأشخاص حقًا على اكتشاف إطار عمل يمكننا من خلاله الاستمتاع بهذه الفوائد أثناء العمل معًا للتخفيف من المخاطر. أعتقد أننا في وضع جيد جدًا للقيام بذلك. التعاون العالمي صعب دائمًا ، لكنني أرى أنه فرصة وتهديد يمكن أن يجمع العالم معًا. سيكون من المفيد جدًا أن نتمكن من تطوير بعض الأطر ومعايير الأمان لتوجيه تطوير هذه الأنظمة.

Zhang Hongjiang: في هذا الموضوع بالذات ، ذكرت أن محاذاة أنظمة الذكاء الاصطناعي المتقدمة هي مشكلة لم يتم حلها. لقد لاحظت أيضًا أن Open AI قد بذل الكثير من الجهد في ذلك على مدار السنوات القليلة الماضية. لقد ذكرت أيضًا GPT-4 كأفضل مثال من حيث المحاذاة. هل تعتقد أنه يمكننا حل مشاكل السلامة المتعلقة بالذكاء الاصطناعي من خلال المحاذاة؟ أم أن هذه المشكلة أكبر من المحاذاة؟

Sam Altman: أعتقد أن هناك استخدامات مختلفة لمحاذاة الكلمة. أعتقد أن ما نحتاج إلى مواجهته هو التحدي الكامل لكيفية تحقيق أنظمة ذكاء اصطناعي آمنة. لطالما كانت المحاذاة تدور حول جعل النموذج يتصرف كما يريد المستخدم ، وهذا بالتأكيد جزء منه. لكن هناك أسئلة أخرى نحتاج إلى الإجابة عليها ، مثل كيف نتحقق من أن الأنظمة تفعل ما نريدها أن تفعله ، وقيمها التي نرتب الأنظمة معها. لكني أعتقد أنه من المهم رؤية الصورة الكاملة لما هو مطلوب لتحقيق ذكاء اصطناعي آمن.

تشانغ هونغ جيانغ: نعم ، لا تزال المحاذاة هي الحال. إذا نظرنا إلى ما فعله GPT-4 ، في الغالب ، فإنه لا يزال من وجهة نظر فنية. لكن هناك العديد من العوامل الأخرى إلى جانب التكنولوجيا. هذه قضية معقدة للغاية. غالبا ما تكون المشاكل المعقدة نظامية. قد لا يكون أمن الذكاء الاصطناعي استثناءً. إلى جانب الجوانب التقنية ، ما العوامل والقضايا الأخرى التي تعتقد أنها مهمة لسلامة الذكاء الاصطناعي؟ كيف يجب أن نستجيب لهذه التحديات؟ خاصة وأن معظمنا علماء ، ماذا يفترض بنا أن نفعل؟

سام التمان: هذا بالطبع سؤال معقد للغاية. أود أن أقول إنه بدون حل تقني ، كل شيء آخر صعب. أعتقد أنه من المهم حقًا التركيز كثيرًا على التأكد من أننا نتعامل مع الجوانب الفنية للأمان. كما ذكرت ، ليست مشكلة فنية لمعرفة القيم التي نريد مواءمة النظام معها. إنها بحاجة إلى مدخلات فنية ، لكنها قضية تتطلب مناقشة متعمقة من قبل المجتمع بأسره. يجب علينا تصميم أنظمة عادلة وتمثيلية وشاملة. وكما أشرت ، علينا ألا نأخذ في الاعتبار أمان نموذج الذكاء الاصطناعي نفسه فحسب ، بل أمن النظام بأكمله. لذلك من المهم أيضًا إنشاء المصنفات الأمنية وأجهزة الكشف التي يمكن تشغيلها أعلى النموذج ويمكنها مراقبة الامتثال لسياسات الاستخدام. وبعد ذلك ، أعتقد أيضًا أنه من الصعب التنبؤ مسبقًا بما سيحدث في أي تقنية. لذا تعلم من العالم الحقيقي وانشر بشكل متكرر ، وانظر ماذا يحدث عندما تضع النموذج في العالم الحقيقي ، وتحسنه ، ومنح الناس والمجتمع وقتًا للتعلم والتحديث ، وفكر في كيفية استخدام هذه النماذج من أجل الخير و تؤثر على حياتهم بطرق سيئة. وهذا هو أيضا مهم جدا.

تشانغ هونغ جيانغ: لقد ذكرت للتو التعاون العالمي. لقد زرت العديد من الدول وتذكر الصين. ولكن هل يمكنك مشاركة بعض النتائج التي حققتها فيما يتعلق بالتعاون؟ ما الخطط أو الأفكار التي لديك للخطوات التالية؟ من هذه الجولة العالمية ، من تفاعلاتك مع مختلف الحكومات والمؤسسات والمؤسسات؟

Sam Altman: أعتقد أن الكثير من وجهات النظر المختلفة وأمان الذكاء الاصطناعي مطلوبان بشكل عام. ليس لدينا جميع الإجابات حتى الآن ، وهذا سؤال صعب ومهم إلى حد ما.

أيضًا ، كما ذكرنا ، ليس الأمر تقنيًا بحتًا لجعل الذكاء الاصطناعي آمنًا ومفيدًا. ينطوي على فهم تفضيلات المستخدم في بلدان مختلفة في سياقات مختلفة للغاية. نحن بحاجة إلى الكثير من المدخلات المختلفة لتحقيق ذلك. تمتلك الصين بعضًا من أفضل المواهب في العالم في مجال الذكاء الاصطناعي. بشكل أساسي ، أعتقد أن هناك حاجة إلى أفضل العقول من جميع أنحاء العالم لمعالجة صعوبة مواءمة أنظمة الذكاء الاصطناعي المتقدمة. لذلك آمل حقًا أن يتمكن باحثو الذكاء الاصطناعي الصينيون من تقديم مساهمات عظيمة هنا.

Zhang Hongjiang: أفهم أن منتدى اليوم يدور حول أمان الذكاء الاصطناعي ، لأن الناس لديهم فضول شديد بشأن OpenAI ، لذلك لدي الكثير من الأسئلة حول OpenAI ، وليس فقط حول أمان الذكاء الاصطناعي. لدي سؤال للجمهور هنا ، هل هناك أي خطة لـ OpenAI لإعادة فتح نماذجها كما فعلت قبل الإصدار 3.0؟ أعتقد أيضًا أن المصدر المفتوح مفيد لسلامة الذكاء الاصطناعي.

Sam Altman: بعض نماذجنا مفتوحة المصدر والبعض الآخر ليس كذلك ، ولكن مع مرور الوقت ، أعتقد أنه يجب أن تتوقع منا الاستمرار في فتح المزيد من النماذج في المستقبل. ليس لدي نموذج أو جدول زمني محدد ، لكنه شيء نناقشه الآن.

Zhang Hongjiang: وضعنا كل جهودنا في المصادر المفتوحة ، بما في ذلك النموذج نفسه ، والخوارزميات لتطوير النموذج ، والأدوات لتحسين العلاقة بين النموذج والبيانات. نحن نؤمن بضرورة المشاركة وجعل المستخدمين يشعرون بالسيطرة على ما يستخدمونه. هل لديك ملاحظات مماثلة؟ أم أن هذا ما تناقشه يا رفاق في OpenAI؟

Sam Altman: نعم ، أعتقد أن المصدر المفتوح يلعب دورًا مهمًا بطريقة ما. كان هناك أيضًا الكثير من النماذج مفتوحة المصدر الجديدة التي ظهرت مؤخرًا. أعتقد أن نموذج API له أيضًا دور مهم. يوفر لنا ضوابط أمنية إضافية. يمكنك حظر استخدامات معينة. يمكنك حظر أنواع معينة من القرص. إذا لم ينجح شيء ما ، يمكنك استعادته. في نطاق النموذج الحالي ، لست قلقًا جدًا بشأن ذلك. ولكن نظرًا لأن النموذج يصبح قويًا كما نتوقعه ، إذا كنا على حق في ذلك ، أعتقد أن البحث عن مصادر مفتوحة لكل شيء قد لا يكون أفضل مسار ، على الرغم من أنه في بعض الأحيان يكون صحيحًا. أعتقد أنه علينا فقط موازنة ذلك بعناية.

Zhang Hongjiang: سؤال المتابعة حول GPT-4 وأمن الذكاء الاصطناعي هو ، هل نحتاج إلى تغيير البنية التحتية بأكملها أو بنية نموذج AGI بأكمله لجعله أكثر أمانًا وأسهل للتحقق؟ ما هي أفكارك حول هذا؟

سام التمان: هذا ممكن بالتأكيد ، فنحن بحاجة إلى بعض البنى المختلفة للغاية ، سواء من حيث الإمكانيات والأمان. أعتقد أننا سنكون قادرين على إحراز بعض التقدم في القابلية للتفسير ، في الأنواع الحالية من النماذج ، وجعلهم يشرحون لنا بشكل أفضل ما يفعلونه ولماذا. لكن لن أتفاجأ إذا حدثت قفزة عملاقة أخرى بعد المحولات. وفي الواقع نحن بالفعل في المحول الأصلي ، لقد تغيرت الهندسة المعمارية كثيرًا.

Zhang Hongjiang: بصفتي باحثًا ، أشعر بالفضول أيضًا ، ما هو الاتجاه التالي لأبحاث الذكاء الاصطناعي العام؟ فيما يتعلق بالنماذج الكبيرة ونماذج اللغات الكبيرة ، هل سنرى GPT-5 قريبًا؟ هل الحدود التالية في النماذج المجسدة؟ هل الروبوتات المستقلة مجال أو تخطط أوبن إيه آي لاستكشافه؟

Sam Altman: لدي فضول أيضًا بشأن الخطوة التالية ، وأحد الأشياء المفضلة لدي في القيام بهذا العمل هو أن هناك الكثير من الإثارة والمفاجأة في طليعة البحث. ليس لدينا إجابات حتى الآن ، لذلك نحن نستكشف العديد من النماذج الجديدة الممكنة. بالطبع ، في مرحلة ما ، سنحاول عمل نموذج GPT-5 ، لكن ليس في أي وقت قريب. لا نعرف متى بالضبط. نحن نعمل على الروبوتات منذ بداية OpenAI ، ونحن مهتمون جدًا بها ، ولكن واجهتنا بعض الصعوبات. آمل أن نتمكن في يوم من الأيام من العودة إلى هذا المجال.

تشانغ هونغ جيانغ: يبدو رائعا. لقد ذكرت أيضًا في العرض التقديمي كيف تستخدم GPT-4 لشرح كيفية عمل GPT-2 ، مما يجعل النموذج أكثر أمانًا. هل هذا النهج قابل للتطوير؟ هل هذا الاتجاه سيستمر OpenAI في التقدم في المستقبل؟

سام التمان: سنواصل الدفع في هذا الاتجاه.

تشانغ هونغ جيانغ: هل تعتقد أنه يمكن تطبيق هذه الطريقة على الخلايا العصبية البيولوجية؟ لأن سبب طرح هذا السؤال هو أن هناك بعض علماء الأحياء وعلماء الأعصاب الذين يرغبون في استخدام هذه الطريقة لدراسة واستكشاف كيفية عمل الخلايا العصبية البشرية في مجالهم.

سام التمان: من الأسهل بكثير رؤية ما يحدث في الخلايا العصبية الاصطناعية مقارنة بالخلايا العصبية البيولوجية. لذلك أعتقد أن هذا النهج صالح للشبكات العصبية الاصطناعية. أعتقد أن هناك طريقة لاستخدام نماذج أكثر قوة لمساعدتنا على فهم النماذج الأخرى. لكنني لست متأكدًا تمامًا من كيفية تطبيق هذا النهج على الدماغ البشري.

تشانغ هونغ جيانغ: حسنًا ، شكرًا لك. الآن بعد أن تحدثنا عن أمان الذكاء الاصطناعي والتحكم في الذكاء الاصطناعي العام ، فإن أحد الأسئلة التي ناقشناها هو ، ألن يكون أكثر أمانًا إذا كان هناك ثلاثة نماذج فقط في العالم؟ إنه مثل السيطرة النووية ، فأنت لا تريد أن تنتشر الأسلحة النووية. لدينا هذه المعاهدة حيث نحاول التحكم في عدد الدول التي يمكنها الحصول على هذه التكنولوجيا. إذن ، هل التحكم في عدد النماذج اتجاه ممكن؟

سام التمان: أعتقد أن هناك آراء مختلفة حول ما إذا كان من الآمن أن يكون لديك نموذج أقلية أو نموذج أغلبية في العالم. أعتقد أنه الأهم من ذلك ، هل لدينا نظام يتم فيه اختبار أي نموذج قوي بشكل كافٍ للتأكد من سلامته؟ هل لدينا إطار عمل يتمتع فيه أي شخص ينشئ نموذجًا قويًا بما فيه الكفاية بالموارد والمسؤولية لضمان أن ما ينشئه آمن ومتناسق؟

تشانغ هونغ جيانغ: في هذا الاجتماع بالأمس ، ذكر البروفيسور ماكس من معهد MIT Future of Life طريقة ممكنة ، تشبه الطريقة التي نتحكم بها في تطوير الأدوية. عندما يطور العلماء أو الشركات أدوية جديدة ، لا يمكنك تسويقها بشكل مباشر. عليك أن تمر بعملية الاختبار هذه. هل هذا شيء يمكننا التعلم منه؟

سام التمان: أعتقد بالتأكيد أنه يمكننا تعلم الكثير من أطر الترخيص والاختبار التي تم تطويرها في صناعات مختلفة. لكني أعتقد أن لدينا شيئًا ما يمكنه العمل.

تشانغ هونغ جيانغ: شكرا جزيلا لك ، سام. شكرًا لك على الوقت الذي قضيته في حضور هذا الاجتماع ، وإن كان ذلك افتراضيًا. أنا متأكد من أن هناك العديد من الأسئلة ، ولكن بالنظر إلى الوقت ، علينا التوقف هنا. آمل أنه في المرة القادمة التي تتاح لك فيها الفرصة للمجيء إلى الصين ، والمجيء إلى بكين ، يمكننا إجراء مناقشة أكثر تعمقًا. شكراً جزيلاً.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت