先ほど、毎年恒例の国内「AI Spring Festival Gala」Zhiyuan Conference が無事終了しました!
この人工知能の年次ピークイベントには、OpenAI、DeepMind、Anthropic、HuggingFace、Midjourney、Stability AI などのおなじみのスターチームが参加し、Meta、Google、Microsoft など世界を征服した大手メーカーも参加し、スタンフォード大学、カリフォルニア大学バークレー校、MIT、その他世界のトップ大学です。
この問題点を解決するために、Zhiyuan Research Institute は、Libra (Flag) 大規模モデル評価システムとオープン プラットフォーム (flag.baai.ac.cn) の立ち上げを優先することにしました。
Flag 大規模モデル評価システムとオープン プラットフォームは、研究者が基本モデルとトレーニング アルゴリズムのパフォーマンスを包括的に評価するのを支援する、科学的で公正かつオープンな評価ベンチマーク、方法、ツール セットを確立することを目的としています。 AI 手法を活用して達成する主観的評価の支援により、評価の効率と客観性が大幅に向上します。
サム・アルトマンとヒントンが中国初登場!中国で最もハードコアなAI専門家イベントが無事終了、国産大規模モデル「Enlightenment 3.0」が完全オープンソース化
**出典:**新志源
先ほど、毎年恒例の国内「AI Spring Festival Gala」Zhiyuan Conference が無事終了しました!
この人工知能の年次ピークイベントには、OpenAI、DeepMind、Anthropic、HuggingFace、Midjourney、Stability AI などのおなじみのスターチームが参加し、Meta、Google、Microsoft など世界を征服した大手メーカーも参加し、スタンフォード大学、カリフォルニア大学バークレー校、MIT、その他世界のトップ大学です。
GPT-4、PaLM-E、OPT、LLaMAなどの重要な著作の著者が全員出席し、研究成果を説明してくれました。このカンファレンスは専門的な深みと創造的なインスピレーションの両方を備えており、あらゆるトピックが極限まで議論されていると言えます。
カンファレンスのクライマックスは間違いなく、チューリング賞受賞者のヤン・ルカン氏、ジェフリー・ヒントン氏、OpenAI創設者サム・アルトマン氏のスピーチでした。
ジェフリー・ヒントン: スーパー AI のリスクは緊急です
終了したばかりのフォーラムの閉会基調講演で、チューリング賞受賞者でディープラーニングの父であるヒントン氏は、私たちのために考える価値のあるシナリオを考案しました。
はい、彼の意見では、それはすぐに起こる可能性があります。
少し前と同様に、ヒントン氏は Google を辞任し、辞任の理由を簡潔に説明しました。彼は自分のライフワークに対する後悔と人工知能の危険性についての懸念を率直に語った。彼は、世界に対する人工知能の危険は気候変動よりも差し迫ったものであると繰り返し公に述べてきた。
同様に、智源会議でもヒントン氏は再びAIのリスクについて語った。
複数のデジタル コンピューター上で実行される大規模なニューラル ネットワークが、人間の知識を得るために人間の言語を模倣するだけでなく、世界から直接知識を取得できるとしたらどうなるでしょうか?
このニューラル ネットワークが画像やビデオの教師なしモデリングを実行でき、そのコピーが物理世界を操作できるのであれば、このアイデアは突飛なものではありません。
超知性体が独自のサブ目標を策定することを許可されている場合、サブ目標の 1 つはより多くの力を獲得することであり、超知性体はその目標を達成するためにそれを使用する人間を操作します。
張宏江氏とサム・アルトマン・ピークのQ&A:AGIは10年以内に出現する可能性がある
今朝、サム・アルトマンもビデオリンクを通じて登場しました。 ChatGPTの爆発後、サム・アルトマン氏が中国で公の場で演説するのはこれが初めてだ。
現在の AI 革命がこれほど大きな影響を与えている理由は、その影響の大きさだけでなく、進歩のスピードにもあります。これは配当とリスクの両方をもたらします。
ますます強力な AI システムの出現により、国際協力を強化し、世界的な信頼を構築することが最も重要です。
調整はまだ未解決の問題です。 GPT-4 は過去 8 か月の間に、主にスケーラビリティと説明可能性を含む調整作業を完了しました。
アルトマン氏は講演の中で、世界規模のAIセキュリティの連携と監督の必要性を繰り返し強調し、特に『道経経』から次の一文を引用した。
同氏によれば、人工知能は爆発的なスピードで発展しており、今後10年以内にスーパーAIが登場する可能性があるという。
したがって、AGI の安全性を促進し、国際協力を強化し、関連する研究展開を調整する必要があります。
サム・アルトマンは、現時点で建設的な一歩を踏み出すための第一歩は、国際的な科学技術コミュニティでの協力であると信じています。特に、AGI の安全性における技術進歩のための透明性と知識共有メカニズムが改善されるべきである。
さらに、アルトマン氏は、OpenAI の現在の主な研究目標は、AI アライメント研究、つまり、AI を有用かつ安全なアシスタントにする方法に焦点を当てていると述べました。
最終的に、OpenAI は、アラインメント研究を支援するために AI システムをトレーニングすることを目指しています。
講演後、知源研究所の張宏江会長とサム・アルトマン氏が空中対話を開始し、AIを安全に調整する方法について話し合った。
さらに、GPT-5は当分存在しないとも述べた。
会談後、アルトマン氏は知源会議での講演に招待されたことに感謝の意を表すメッセージを発表した。
ルカン: 今でもワールドモデルのファン
初日に講演したもう一人のチューリング賞受賞者ルカン氏は、依然として自身の「世界モデル」コンセプトを推進し続けた。
同氏は、AIは人間や動物のように推論したり計画したりすることができないと説明した。その理由の一部は、現在の機械学習システムが入力と出力の間で本質的に一定の計算ステップを持っているためである。
機械はどのようにして世界の仕組みを理解し、人間のように行動の結果を予測したり、複雑なタスクを計画するために複数のステップに分割したりできるでしょうか?
ルカン氏は、今後数年間の人工知能の 3 つの主要な課題は、世界の表現を学習すること、世界モデルを予測すること、自己教師あり学習を使用することであると判断したと述べました。
人間レベルのAIを構築するための鍵は、「世界モデル」を学習する能力かもしれません。
このうち「ワールドモデル」は、コンフィギュレータモジュール、認識モジュール、ワールドモデル、コストモジュール、アクターモジュール、短期記憶モジュールの6つの独立したモジュールで構成されています。
AIシステムが人間に生存上のリスクをもたらすのではないかとの質問に対し、ルカン氏は、我々はまだスーパーAIを持っていないので、どうすればスーパーAIシステムを安全にできるだろうかと答えた。
ベストマッチな「AIエキスパートイベント」
活気に満ちた2023年のZhiyuan Conferenceは、今年国内AI分野で最高レベルで最も注目されるカンファレンスと言える。
設立当初から、知源会議の本質的な特徴は、学術的、専門的、最先端であるという点で非常に明確です。
AI 専門家のためのこの毎年恒例のイベントもあっという間に 5 回目を迎えました。
今回の2023年知源会議は、各知源会議の伝統を引き継ぎ、学術的な雰囲気が依然として圧倒的です。
2022年には、チューリング賞受賞者のヤン・ルカン氏とアディ・シャミール氏、強化学習の父リチャード・サットン氏、米国の学者マイケル・I・ジョーダン氏、ゲーデル賞受賞者のシンシア・ドワーク氏、その他の重鎮が参加した。
そして2023年までに、それは間違いなく「最もスターがちりばめられた」セッションになるでしょう。
チューリング賞受賞者のヤン・ルカン氏、ジェフリー・ヒントン氏、ジョセフ・シファキス氏、ヤオ・チージ氏の4名に加え、OpenAI創設者のサム・アルトマン氏、ノーベル賞受賞者のアリエ・ウォーシェル氏、フューチャーライフ研究所創設者のマックス・テグマーク氏、2022年ウー・ウェンジュン最高功績賞受賞者の鄭南寧院士らも名を連ねる。中国科学院の学者、張波氏も参加した。
「Enlightenment 3.0」は大型モデルシリーズです。
具体的には、Aquila言語大規模モデルシリーズ、Flag大規模モデル評価システム、ビジュアル大規模モデルシリーズ「Enlightenment・Vision」、マルチモーダル大規模モデルシリーズなどです。
言語大規模モデル シリーズ
Enlightenment·Aquila: 完全にオープンな商用ライセンス
まず、Aquila シリーズ モデルです。これは、中国語と英語のバイリンガルの知識を備え、国内のデータ コンプライアンス要件をサポートする初のオープンソース言語モデルであり、完全にオープンな商用ライセンスを持っています。
このオープンソースには、70 億パラメータと 330 億パラメータの基本モデル、AquilaChat ダイアログ モデル、AquilaCode の「テキスト コード」生成モデルが含まれています。
より強力なパフォーマンス
技術的には、Aquila 基本モデル (7B、33B) は、GPT-3、LLaMA などのアーキテクチャ設計の利点を技術的に継承し、より効率的な基礎となる演算子実装のバッチを置き換え、中国語と英語のバイリンガル トークナイザーである BMTrain パラレルを再設計して実装します。トレーニング方法がアップグレードされ、Aquilaのトレーニングプロセスでは、Magtron+DeepSpeed ZeRO-2に比べてトレーニング効率が8倍近く向上しました。
具体的には、1 つ目は、トレーニング フレームワークを並行して加速する新しい手法の恩恵を受けることです。
昨年、Zhiyuan は、BMTrain などの新しい並列トレーニング手法を統合した大規模モデル アルゴリズム オープンソース プロジェクト FlagAI をオープンソース化しました。トレーニング プロセス中に、その計算と通信、および重複する問題がさらに最適化されます。
次に、Zhiyuan はオペレータ最適化テクノロジの導入を率先して行い、それを並列アクセラレーション手法と統合してパフォーマンスをさらに高速化しました。
中国語と英語を同時に学習
Aquila のリリースがなぜこれほど心強いのでしょうか?
なぜなら、多くの大規模モデルは大量の英語コーパストレーニングに基づいて「英語だけを学習する」だけですが、Aquila は中国語と英語の両方を学習する必要があるからです。
皆さんも経験があるかもしれませんが、知識を学ぶとき、ずっと英語を使い続けていれば問題ありませんが、英語を学んでから中国語を学ぶとなると、その難しさは圧倒的です。
したがって、LLaMAやOPTなどの英語ベースのモデルと比較して、中国語と英語の両方の知識を学習する必要があるAquilaのトレーニング難易度は何倍にも増加しました。
Aquila を中国語のタスクに最適化するために、Zhiyuan は中国語コーパスの 40% 近くをトレーニング コーパスに組み込みました。その理由は、Zhiyuan 氏が、Aquila が中国語を生成するだけでなく、中国語世界に関するネイティブの知識を多く理解できることを望んでいるからです。
さらに、Zhiyuan は中国語と英語のバイリンガル トークナイザー (トークナイザー) も再設計して実装し、中国語の単語の分割をより適切に認識してサポートできるようにしました。
Zhiyuan チームは、中国のタスクのトレーニングと設計のプロセスで、品質と効率の 2 つの側面を意図的に比較検討し、トークナイザーのサイズを決定します。
AquilaChat 対話モデル (7B、33B) は、スムーズなテキスト対話と多言語生成タスクをサポートするために、Aquila 基本モデルに基づいて構築されています。
また、拡張可能な特殊命令仕様を定義することで、AquilaChatから他のモデルやツールを呼び出すことができ、拡張が容易です。
たとえば、Zhiyuan がオープンソース化した AltDiffusion 多言語テキストおよび画像生成モデルは、スムーズなテキストおよび画像生成機能を実現するために使用されます。 Zhiyuan InstructFace のマルチステップ制御可能な Vincent グラフ モデルと連携して、顔画像のマルチステップ制御可能な編集も簡単に実現できます。
AquilaCode-7B「テキストコード」生成モデルは、Aquila-7Bの強力な基本モデル機能に基づいており、少ないデータセットと少量のパラメータで高いパフォーマンスを実現しており、現在中国語をサポートする最良のオープンソースコードモデルです。高品質のフィルタリングの後、準拠したオープンソース ライセンスを持つトレーニング コード データを使用してトレーニングが実行されます。
準拠性が高く、よりクリーンな中国語コーパス
海外のオープンソースモデルと比較して、Aquilaの最も特徴的な点は、国内のデータコンプライアンス要件をサポートしていることです。
外国の大規模モデルには特定の中国語機能が備わっている場合がありますが、外国のオープンソースの大規模モデルで使用されるほぼすべての中国のインターネット データは、Common Crawl などのインターネット データ セットから抽出されます。
しかし、Common Crawl コーパスを分析すると、100 万件のエントリのうち利用可能な中国の Web ページは 40,000 未満であり、そのうち 83% が海外の Web サイトであり、明らかに品質を制御できないことがわかります。
したがって、Aquila は Common Crawl で中国語コーパスを使用せず、過去 3 年間に蓄積された Zhiyuan 独自の Wudao データセットを使用しました。 Wudao の中国語データ セットは 10,000 以上の中国本土の Web サイトから取得しているため、その中国語データはコンプライアンス要件を満たしており、よりクリーンです。
一般に、このリリースは単なる出発点にすぎません。Zhiyuan の目標は、大規模モデルの進化と反復パイプラインの完全なセットを作成し、より多くのデータとより多くの機能を追加して大規模モデルが成長し続けることです。オープンソースかつオープンであること。
Aquila は消費者向けグラフィック カードで利用できることは注目に値します。たとえば、7B モデルは 16G またはさらに小さいビデオ メモリで実行できます。
ライブラリ(フラッグ)大型モデル評価システム
安全で信頼性があり、包括的かつ客観的な大規模モデルの評価システムも、大規模モデルの技術革新と産業実装にとって非常に重要です。
まず、学術コミュニティにとって、大規模モデルのイノベーションを推進したいのであれば、大規模モデルの能力と品質を測る物差しが必要です。
第二に、業界に関しては、大多数の企業は、モデルを一から開発するのではなく、既存の大規模モデルを直接使用することを選択するでしょう。選定にあたっては、判断材料となる評価制度が必要です。結局のところ、自社開発の基本的な大規模モデルは膨大な計算能力コストに依存しています。 300億のパラメータを持つモデルを開発するには、計算能力やデータなどを含めて少なくとも2000万の資金が必要となる。
また、「自動評価+手動主観評価」による包括的な大規模モデル評価システムを構築し、評価結果からモデル能力分析、モデル能力向上までの自動閉ループを実現できるかどうか。基本的な大規模モデルの革新の重要な側面となり、障壁の 1 つとなります。
この問題点を解決するために、Zhiyuan Research Institute は、Libra (Flag) 大規模モデル評価システムとオープン プラットフォーム (flag.baai.ac.cn) の立ち上げを優先することにしました。
具体的には、Flag大規模モデル評価システムは、基本モデルの認知能力境界をきめ細かく記述し、評価結果を可視化する「能力・課題・指標」という三次元の評価枠組みを革新的に構築しています。
現在、Flag 大規模モデル評価システムには、22 の評価データ セットと 84,433 の質問を含む、合計 600 以上の評価次元が含まれており、さらに多くの次元の評価データ セットが徐々に統合されています。
さらに、Flag 大規模モデル評価システムは、大規模言語モデルをより包括的かつ科学的に評価するために、大規模言語モデルの評価と心理学、教育、倫理などの社会分野との間の学際的研究を引き続き探索していきます。 。
ビジュアルラージモデルシリーズ
コンピュータ ビジョンに関しては、Enlightenment 3.0 チームは、一般的なシーン認識と複雑なタスク処理機能を備えた大規模モデルの「Enlightenment Vision」シリーズを作成しました。
その中でも、「Enlightenment・Vision」の基礎を構築するのが、この6バーストのSOTAテクノロジーです。
マルチモーダル大型モデル「Emu」、事前学習済み大型モデル「EVA」、視覚汎用マルチタスクモデル「Painter」、一般視覚セグメンテーションモデル、グラフィック事前学習大型モデル「EVA-CLIP」、ビデオ編集技術「vid2vid」 -ゼロ」。
1. エミュ: マルチモーダル シーケンスですべてを完了する
トレーニングが完了すると、Emu はマルチモーダル シーケンスのコンテキストですべてを完了し、画像、テキスト、ビデオなどのさまざまなモダリティのデータを認識、推論、生成し、複数ラウンドのグラフィックとテキストの対話や少数サンプルのグラフィックを完了できます。 - テキストの理解、ビデオの質問と回答、テキストから画像への生成、画像から画像への生成、その他のマルチモーダル タスク。
2. EVA:10億レベルの最強ビジュアルベーシックモデル
用紙のアドレス:
EVA は、セマンティック学習モデル (CLIP) と幾何構造学習メソッド (MIM) を組み合わせ、標準 ViT モデルをトレーニング用の 10 億パラメータに拡張します。 ImageNet 分類、COCO 検出とセグメンテーション、Kinetics ビデオ分類などの幅広い視覚認識タスクにおいて、当時最強のパフォーマンスを一気に達成しました。
3. EVA-CLIP: 最も強力なオープンソース CLIP モデル
用紙のアドレス:
EVA-CLIPは、基本ビジョンモデルEVAを核として開発され、50億個のパラメータを反復して開発されました。
以前の OpenCLIP の精度率 80.1% と比較して、EVA-CLIP モデルの ImageNet1K ゼロサンプル トップ 1 の精度率は 82.0% です。 ImageNet kNN の精度の点では、Meta の最新の DINOv2 モデルは 10 億パラメータの EVA-CLIP と同等です。
4. Painter: 最初の「コンテキスト画像学習」テクノロジー パス
用紙のアドレス:
一般的なビジュアル モデル Painter モデリングの中心的な考え方は「視覚中心」であり、画像を入出力として使用することで、コンテキストに応じた視覚情報が取得され、さまざまな視覚タスクを完了できます。
5. Horizons のユニバーサル セグメンテーション モデル: オールインワン、すべてを分割
簡単に言うと、ユーザーは画面上のオブジェクトのクラスをマークして認識し、現在の画面でも、他の画面やビデオ環境でも、類似したオブジェクトをバッチで識別してセグメント化できます。
6. vid2vid-zero: 業界初のゼロサンプルビデオ編集テクノロジー
論文リンク:
Demo地址:
ゼロサンプルビデオ編集技術「vid2vid-zero」は、アテンションメカニズムの動的特性を初めて利用し、既存の画像拡散モデルと組み合わせて、追加のビデオ事前トレーニングなしでビデオ編集用のモデルフレームワークを作成します。ビデオをアップロードし、テキスト プロンプトの文字列を入力するだけで、指定した属性でビデオを編集できます。
中国の大規模模型研究の啓蒙者
Zhiyuan Research Institute は 2018 年 11 月に設立され、中国における大規模模型研究の先駆者であり、5 年間の開発を経て、中国における大規模模型研究のベンチマークとなっています。
他の機関と異なる点は、知源研究所がプラットフォーム機関であることです。 Zhiyuan Research Institute は設立当初、人工知能イノベーション エコシステムの構築を基本的な使命と任務の 1 つとしていました。
Zhiyuanは設立以来、中国における大規模模型研究の発展をどのように推進してきましたか?
そういえば、2015年に策定されたOpenAI研究の主な方向性はAGIへの道筋を探ることであり、大きなモデルではない。
2018年以降、OpenAIは大規模モデルに注力し始め、6月には1億1,700万のパラメータを備えたGPTをリリースした。同年、Google は 3 億個のパラメータを備えた大規模な事前トレーニング済み言語モデル BERT もリリースしました。
2018 年の業界全体のトレンドとテクノロジーのトレンドは、より大きなモデルを作る方向にあることに誰もが気づいています。
モデルで使用される計算能力が増加すると、ムーアの法則はいわゆる「モデルの法則」になります。つまり、大規模なモデルのトレーニングに使用される計算能力は 3 ~ 4 か月で 2 倍になります。
その結果、2021年にZhiyuanはEnlightenment 1.0とEnlightenment 2.0の2つの大型モデルを連続してリリースしました。
黄鉄軍氏によると、2021年3月のEnlightenment 1.0記者会見で、知源研究は人工知能が「ビッグモデル」から「ビッグモデル」の新たな段階に変化したと判断し、それ以来「ビッグモデル」の概念はパブリックビジョンに入りました。
毎年、Zhiyuan Conference では、AGI の頂点に登るための 3 つの主要な技術的ルート、つまり大型モデル、生命インテリジェンス、AI4 サイエンスが詳しく説明されます。これら 3 つのルートは孤立しているわけではなく、相互に影響し合います。
言語データ自体には豊富な知識と知性が含まれており、それらは大規模モデルを通じて抽出され、ニューラル ネットワークは複雑なデータの背後にある法則を表現するために使用されます。
これは、大型モデルの技術的なルートの 1 つが AGI につながる可能性がある合理的な理由です。
これは、Zhiyuan が最初に大型モデルに焦点を当てた理由も説明しています。 2021 年 3 月に Enlightenment 1.0 がリリースされ、続いて 6 月に Enlightenment 2.0 がリリースされました。
さらに、Zhiyuan は大型モデルに加えて、AGI につながる他の 2 つの道、「Life Intelligence」と「AI4Science」も常に模索しています。
2022 年、Zhiyuan は線虫の最も正確なシミュレーションをリリースしました。今回、Zhiyuanは人工線虫の研究に使用されるライフシミュレーションプラットフォーム「eVolution-eVolution」をオープンし、オンラインサービスを提供した。
Tianyan は超大規模ファイン ニューロン ネットワーク シミュレーション プラットフォームであり、ファイン ニューロン ネットワーク シミュレーションのための最も効率的なプラットフォーム、超大規模ニューラル ネットワーク シミュレーションのサポート、ワンストップのオンライン モデリングおよびシミュレーション ツールセットの提供、および 4 つの注目すべき機能を備えています。高品質の視覚的インタラクションにより、リアルタイム シミュレーションと視覚的な共同操作がサポートされます。
Tianyan プラットフォームに基づいて、生物学的知能の高精度シミュレーションを実現し、知能の本質を探求し、生物学に触発された一般的な人工知能を推進します。さらに、Tianyan チームは Tianyan を我が国の新世代エクサスケール スーパーコンピューターである Tianhe 新世代スーパーコンピューターに接続しました。
「Tianyan-Tianhe」の導入と運用の成功により、マウスの脳 V1 視覚野微細ネットワークなどのモデルのシミュレーションが実現し、計算エネルギー消費量が 10 倍以上削減され、計算速度が向上しました。 10倍以上に増加し、世界最高レベルに達します。 微細なニューロンネットワークシミュレーションの性能は、人間の脳全体の微細なシミュレーションを実現するための強固な基盤を築きます。
2 年後の今、Zhiyuan は再び Enlightenment 3.0 シリーズの大型モデルをリリースしました。
ポジショニングに関しては、Enlightenment 2.0 のリリース以来、Zhiyuan は非営利プラットフォーム組織として、モデルやモデルを作成するだけでなく、大型モデルのコア エコロジーの構築にも徐々に独自の貢献を行っています。
その中には、モデルの背後にあるデータの並べ替え、モデルのテスト、アルゴリズムのテスト、オープンソースとオープン組織、コンピューティングパワープラットフォームの包括的なレイアウトが含まれます。
Zhiyuanはなぜそのような変化を起こしたのでしょうか?
それは、大型モデル自体が大型モデル時代の最も重要な製品形態ではなく、システム化と知的サービスを特徴とする新しい時代であることを志源氏が深く理解しているからです。
現在、大規模なモデルは進化し続けますが、変わらないのはその背後にある技術的な反復、つまりモデルをトレーニングするためのアルゴリズムです。
日々目にする最新のモデルは単なる結果を固めたものであり、重要なのはモデルを学習させるアルゴリズムが高度であるか、コストが効果的に削減されているか、そしてその背後にある能力が説明可能で制御可能であるかどうかです。
したがって、プラットフォーム組織として Zhiyuan がしなければならないことは、業界のトレーニング モデルのアルゴリズムを 1 つの反復的な全体に統合することです。
Zhiyuan は大規模モデルのアルゴリズム自体に取り組むだけでなく、大規模モデルの技術システムの開発にも多くの時間とエネルギーを費やしています。
たとえば、Zhiyuan は、大規模なモデル トレーニングのためのコンピューティング能力、データ、アルゴリズム サポートを提供する大規模なクラウド コンピューティング サービス プラットフォーム「Jiuding Smart Computing Platform」を立ち上げました。
もちろん、Zhiyuan 自身の強みだけでなく、産学研究機関が協力し、オープンな形で反復することも強みです。
今年 3 月、Zhiyuan は、多くの産学研究部門と共同で構築された大規模モデル用のオープンソースおよびオープン ソフトウェア システムである FlagOpen Feizhi 大規模モデル テクノロジー オープン ソース システムをリリースしました。
これまでの会議と比べて、今年の知源会議の最大の特徴は何だろうかと疑問に思うかもしれません。
そのスタイルは一貫しており、プロフェッショナルと純粋という 2 つの言葉で要約されます。
知源会議は現実的な目標を持たずに開催され、製品や投資家に注意を払わなかった。
ここでは、業界のリーダーが多くの現実的な要素を考慮することなく、個人的な意見を提示し、専門的な観点から判断を下すことができ、もちろんトップ意見の衝突や議論も含まれます。
「AI のゴッドファーザー」ジェフリー・ヒントン氏は今年初めて知源カンファレンスに参加したが、少し前に自分のライフワークを後悔してグーグルを辞めた。彼は人工知能の安全性に関する最新の見解を発表しました。
いつものように、「楽観主義者」のヤン・ルカン氏は、ほとんどの人のように人工知能のリスクを心配するつもりはない、彼の意見では、車が作られる前にブレーキをかけるのは不合理だという。現時点では、より高度なAI技術の開発に努力する必要があるそしてアルゴリズム。
同時に、会議では激しい意見の対立も見られるだろう。 AI リスクの制御についてマックス・テグマーク氏が語る。ルカンとは真逆とは言えませんが、大きな違いもあります。
これが知源会議の最大のハイライトであり、一貫したスタイルでもある。
この位置付けの独自性は近年ますます重要になってきています。
人工知能の発展は世界と中国にますます大きな影響を与えているため、誰もがイデオロギーの衝突や白熱した議論など、純粋な方法で自分の意見を表現する機会を必要としています。
この重要性は、会議がより専門的で、より純粋で、より中立的で、よりオープンであればあるほど、誰もがこのような急速な発展の時代をよりよく理解するのに役立つということです。
海外でも知源会議の評判は高く、国際機関は知源会議を中国との人工知能研究協力の窓口とみなしている。
知源という名前の由来も知性の源です。したがって、知源会議の開催は、人工知能の生態学的発展を促進するための画期的なイベントとなっています。
強力なゲストのラインナップ、話題設定の豊富さ、議論の内容の深さにより、ユニークなZhiyuan Conferenceが誕生しました。
AI専門家限定のこのトップイベントは、中国のAI分野における輝かしい名刺となった。
参考文献: