Sam Altman e Hinton estreiam na China! O evento de especialistas em IA mais radical da China foi concluído com sucesso, e o modelo doméstico de grande escala "Enlightenment 3.0" foi totalmente de código aberto

**Fonte:**Xinzhiyuan

【Introdução ao Xinzhiyuan】 A Conferência Zhiyuan deste ano ainda está repleta de estrelas e cheio de senso acadêmico. Todos os grandes nomes debateram a super IA, e a colisão de ideias acendeu faíscas. Ainda é um AI Spring Festival Gala que não deve ser perdido!

Agora mesmo, a Conferência Zhiyuan doméstica anual "AI Spring Festival Gala" foi concluída com sucesso!

Neste evento de pico anual de inteligência artificial, existem equipes conhecidas como OpenAI, DeepMind, Anthropic, HuggingFace, Midjourney, Stability AI, etc., existem Meta, Google, Microsoft e outros grandes fabricantes que conquistaram o mundo, e há são Stanford, UC Berkeley, MIT e outras universidades importantes do mundo.

Autores de trabalhos importantes como GPT-4, PaLM-E, OPT, LLaMA, etc. compareceram e explicaram os resultados da pesquisa para nós. Pode-se dizer que esta conferência tem profundidade profissional e inspiração criativa, e todos os tópicos foram discutidos ao extremo.

O clímax da conferência foram, sem dúvida, os discursos do vencedor do Turing Award, Yann LeCun, Geoffrey Hinton e do fundador da OpenAI, Sam Altman.

A aparência desses superpesados pode ser descrita como cheia de destaques.

Geoffrey Hinton: o risco de super IA é urgente

No discurso de encerramento recém-concluído do fórum, Hinton, o vencedor do Prêmio Turing e o pai do aprendizado profundo, concebeu um cenário que vale a pena pensar para nós.

No início do discurso, Hinton perguntou: "As redes neurais artificiais são mais inteligentes do que as redes neurais reais?"

Sim, na opinião dele, isso pode acontecer em breve.

Como há algum tempo, Hinton se demitiu do Google e explicou em poucas palavras os motivos de sua renúncia. Ele falou sobre arrependimentos sobre o trabalho de sua vida e se preocupa com os perigos da inteligência artificial. Ele afirmou repetidamente publicamente que os perigos da inteligência artificial para o mundo são mais urgentes do que as mudanças climáticas.

Da mesma forma, na Conferência de Zhiyuan, Hinton falou novamente sobre os riscos da IA.

E se uma grande rede neural rodando em vários computadores digitais pudesse adquirir conhecimento diretamente do mundo, além de imitar a linguagem humana para o conhecimento humano?

Obviamente, ele se tornará muito melhor que os humanos porque observou mais dados.

Essa ideia não é exagerada, se essa rede neural pode realizar modelagem não supervisionada de imagens ou vídeos, e suas cópias também podem manipular o mundo físico.

Nos casos mais extremos, os criminosos usam a superinteligência para manipular os eleitores e vencer as guerras.

Se uma superinteligência puder formular seus próprios subobjetivos, sendo um subobjetivo ganhar mais poder, a superinteligência manipulará os humanos que a usam para atingir esse objetivo.

Zhang Hongjiang e Sam Altman Peak Q&A: AGI pode aparecer dentro de dez anos

Esta manhã, Sam Altman também apareceu via link de vídeo. Esta é a primeira vez que Sam Altman faz um discurso público na China depois que o ChatGPT explodiu.

Destaques:

  • A razão pela qual a atual revolução da IA é tão impactante não é apenas a escala de seu impacto, mas também a velocidade do progresso. Isso traz dividendos e riscos.

  • Com o advento de sistemas de IA cada vez mais poderosos, é fundamental fortalecer a cooperação internacional e construir a confiança global.

  • O alinhamento ainda é uma questão em aberto. O GPT-4 concluiu o trabalho de alinhamento nos últimos 8 meses, principalmente incluindo escalabilidade e explicabilidade.

Em seu discurso, Altman enfatizou repetidamente a necessidade de alinhamento e supervisão global da segurança da IA e citou especificamente uma frase do Tao Te Ching:

Uma jornada de mil milhas começa com um único passo.

Em sua opinião, a inteligência artificial está se desenvolvendo em uma velocidade explosiva e a super IA pode aparecer nos próximos dez anos.

Portanto, é necessário promover a segurança da AGI, fortalecer a cooperação internacional e alinhar as implantações de pesquisa relevantes.

Sam Altman acredita que a cooperação na comunidade científica e tecnológica internacional é o primeiro passo para dar um passo construtivo neste momento. Em particular, os mecanismos de transparência e compartilhamento de conhecimento para o progresso tecnológico na segurança AGI devem ser aprimorados.

Além disso, Altman mencionou que o atual principal objetivo de pesquisa da OpenAI está focado na pesquisa de alinhamento da IA, ou seja, como tornar a IA um assistente útil e seguro.

Uma é a supervisão escalável, tentando usar sistemas de IA para ajudar os humanos a supervisionar outros sistemas de inteligência artificial. A segunda é a interpretabilidade, tentando entender a "caixa preta" do funcionamento interno do grande modelo.

Por fim, o OpenAI visa treinar sistemas de IA para ajudar na pesquisa de alinhamento.

Após o discurso, Zhang Hongjiang, presidente do Zhiyuan Research Institute, e Sam Altman abriram um diálogo aéreo para discutir como tornar o alinhamento seguro da IA.

Quando perguntado se o OpenAI abrirá grandes modelos de código, Altman disse que haverá mais códigos abertos no futuro, mas não há modelo e cronograma específicos.

Além disso, ele também disse que não haverá GPT-5 tão cedo.

Após a reunião, Altman emitiu uma mensagem para expressar sua gratidão por ter sido convidado para fazer uma palestra na Conferência de Zhiyuan.

LeCun: ainda fã do modelo mundial

Outro vencedor do Turing Award, LeCun, que falou no primeiro dia, continuou a promover seu próprio conceito de "modelo mundial".

LeCun sempre expressou desdém pela ideia de que a IA destruirá os seres humanos. Ele acredita que a IA de hoje não é tão inteligente quanto um cachorro e que a verdadeira inteligência artificial ainda não foi desenvolvida. Tais preocupações são supérfluas.

Ele explicou que a IA não pode raciocinar e planejar como humanos e animais, em parte porque os atuais sistemas de aprendizado de máquina têm etapas computacionais essencialmente constantes entre entrada e saída.

Como uma máquina pode entender como o mundo funciona, prever as consequências de ações como as dos humanos ou dividi-lo em várias etapas para planejar tarefas complexas?

Claramente, a aprendizagem auto-supervisionada é um caminho. Comparado ao aprendizado por reforço, o aprendizado autossupervisionado pode gerar uma grande quantidade de feedback e ser capaz de prever qualquer parte de sua entrada.

LeCun disse que determinou que os três principais desafios da inteligência artificial nos próximos anos são aprender a representação do mundo, prever o modelo do mundo e usar o aprendizado auto-supervisionado.

A chave para construir uma IA de nível humano pode ser a capacidade de aprender um "modelo de mundo".

Entre eles, o "modelo de mundo" é composto por seis módulos independentes, incluindo: módulo configurador, módulo de percepção, modelo de mundo, módulo de custo, módulo de ator e módulo de memória de curto prazo.

Ele acredita que projetar o paradigma de arquitetura e treinamento para o modelo mundial é o verdadeiro obstáculo para o desenvolvimento da inteligência artificial nas próximas décadas.

Quando questionado se o sistema de IA representaria um risco existencial para os humanos, LeCun disse que ainda não temos uma super IA, então como podemos tornar o sistema de super IA seguro?

O melhor "evento de especialista em IA"

Pode-se dizer que a vigorosa Conferência Zhiyuan de 2023 é a conferência de mais alto nível e mais assistida no campo doméstico de IA este ano.

Desde o início de sua criação, as características essenciais da Conferência Zhiyuan são muito claras: acadêmica, profissional, de ponta.

Em um piscar de olhos, este evento anual para especialistas em IA chega ao seu quinto ano.

Desta vez, a Conferência Zhiyuan de 2023 continua a tradição de cada Conferência Zhiyuan, e o senso de atmosfera acadêmica ainda é impressionante.

Em 2021, na terceira Conferência Zhiyuan, Yoshua Bengio, vencedor do Prêmio Turing, E Weinan, professor da Universidade de Pequim, e Zhu Min, reitor do Instituto Nacional de Pesquisa Financeira da Universidade de Tsinghua, darão palestras importantes.

Em 2022, dois vencedores do Prêmio Turing Yann LeCun e Adi Shamir, o pai do aprendizado por reforço Richard Sutton, acadêmico dos Estados Unidos Michael I. Jordan, vencedora do Prêmio Gödel Cynthia Dwork e outros pesos pesados compartilharam.

E até 2023, será sem dúvida a sessão "mais estrelada".

Há 4 vencedores do Turing Award Yann LeCun, Geoffrey Hinton, Joseph Sifakis e Yao Qizhi, bem como o fundador da OpenAI Sam Altman, o vencedor do Prêmio Nobel Arieh Warshel, o fundador do Future Life Institute Max Tegmark e o vencedor do Prêmio Wu Wenjun Supreme Achievement de 2022, Zheng Nanning Academicians e o acadêmico Zhang Bo, da Academia Chinesa de Ciências, participaram.

Mais importante, depois que o projeto de modelo em grande escala "Iluminismo" de Zhiyuan quebrou continuamente o recorde de "o primeiro da China + o maior do mundo", o "Iluminismo 3.0" entrou em um novo estágio de "código aberto abrangente".

"Enlightenment 3.0" é uma série de modelos em grande escala.

Especificamente, inclui a série de modelos em grande escala da linguagem Aquila, o sistema de avaliação de modelos em grande escala Flag, a série de modelos visuais em grande escala "Iluminismo · Visão" e a série de modelos multimodais em grande escala.

Language Large Model Series

Iluminismo·Aquila: licença comercial totalmente aberta

O primeiro a aparecer é a série Aquila de modelos grandes, que são os primeiros modelos grandes de linguagem de código aberto com conhecimento bilíngue em chinês e inglês para atender aos requisitos de conformidade de dados domésticos e abrir licenças comerciais totalmente abertas.

Este código aberto inclui o modelo básico de 7 bilhões de parâmetros e 33 bilhões de parâmetros, o modelo de diálogo AquilaChat e o modelo de geração de "código de texto" AquilaCode.

Endereço de código aberto do Enlightenment Aquila:

Desempenho mais forte

Tecnicamente, o modelo básico Aquila (7B, 33B) herda tecnicamente as vantagens do projeto arquitetônico de GPT-3, LLaMA, etc., substitui um lote de implementações de operador de nível inferior mais eficientes, redesenha e implementa um tokenizer bilíngue chinês-inglês, O método de treinamento paralelo BMTrain foi atualizado e, no processo de treinamento do Aquila, a eficiência do treinamento é quase 8 vezes maior que a do Magtron+DeepSpeed ZeRO-2.

Especificamente, o primeiro é se beneficiar de uma nova técnica para acelerar o quadro de treinamento em paralelo.

No ano passado, Zhiyuan abriu o código aberto do projeto de código aberto de algoritmo de modelo grande FlagAI, que integrou um novo método de treinamento paralelo, como o BMTrain. Durante o processo de treinamento, sua computação e comunicação, bem como questões sobrepostas, são otimizadas.

Em segundo lugar, Zhiyuan assumiu a liderança na introdução da tecnologia de otimização do operador e a integrou com métodos de aceleração paralela para acelerar ainda mais o desempenho.

Aprender chinês e inglês ao mesmo tempo

Por que o lançamento de Aquila é tão encorajador?

Porque muitos modelos grandes "aprendem apenas inglês" - apenas com base em uma grande quantidade de treinamento de corpus em inglês, mas o Aquila precisa aprender chinês e inglês.

Você mesmo pode ter experimentado isso: quando alguém aprende conhecimento, não há problema se você continuar usando o inglês o tempo todo, mas se você aprender inglês e depois aprender chinês, a dificuldade será esmagadora.

Portanto, em comparação com modelos baseados em inglês, como LLaMA e OPT, a dificuldade de treinamento de Aquila, que precisa aprender o conhecimento chinês e inglês, aumentou muitas vezes.

A fim de otimizar o Aquila para tarefas chinesas, Zhiyuan colocou quase 40% do corpus chinês em seu corpus de treinamento. A razão é que Zhiyuan espera que Aquila possa não apenas gerar chinês, mas também entender muito conhecimento nativo do mundo chinês.

Além disso, Zhiyuan também redesenhou e implementou o tokenizer bilíngue chinês-inglês (tokenizer), que é para melhor reconhecer e oferecer suporte à segmentação de palavras chinesas.

No processo de treinamento e design, para tarefas chinesas, a equipe Zhiyuan pondera deliberadamente as duas dimensões de qualidade e eficiência para determinar o tamanho do tokenizador.

O modelo de diálogo AquilaChat (7B, 33B) é construído com base no modelo básico Aquila para suportar um diálogo de texto suave e tarefas de geração multilíngue.

várias rodadas de diálogo

Geração de composição de vestibular

Além disso, ao definir especificações extensíveis de instruções especiais, o AquilaChat pode ser utilizado para chamar outros modelos e ferramentas, sendo de fácil expansão.

Por exemplo, o modelo de geração de texto e imagem multilíngue AltDiffusion, de código aberto da Zhiyuan, é usado para obter recursos de geração de texto e imagem suaves. Cooperando com o modelo de gráfico Vincent controlável em várias etapas do Zhiyuan InstructFace, ele também pode realizar facilmente a edição controlável em várias etapas de imagens faciais.

geração de texto

Edição de rosto controlável em várias etapas

O modelo de geração de "código de texto" AquilaCode-7B, baseado nos poderosos recursos do modelo básico do Aquila-7B, alcança alto desempenho com um pequeno conjunto de dados e uma pequena quantidade de parâmetros. Atualmente, é o melhor modelo de código aberto compatível com chinês e desempenho bilíngue em inglês Após filtragem de alta qualidade, o treinamento é realizado usando dados de código de treinamento com licenças de código aberto compatíveis.

Além disso, o AquilaCode-7B concluiu o treinamento de modelos de código em Nvidia e chips domésticos, respectivamente, e por meio de código-fonte aberto + modelos de várias arquiteturas, promove a inovação de chips e o desabrochar de uma centena de flores.

geração de código de texto

Corpus chinês mais compatível e limpo

Comparado com modelos estrangeiros de código aberto, a característica mais distintiva do Aquila é que ele oferece suporte aos requisitos de conformidade de dados domésticos.

Modelos estrangeiros em grande escala podem ter certas capacidades chinesas, mas quase todos os dados chineses da Internet usados por modelos estrangeiros de código aberto em grande escala são extraídos de conjuntos de dados da Internet, como o Common Crawl.

No entanto, se analisarmos o corpus do Common Crawl, podemos descobrir que existem menos de 40.000 páginas chinesas disponíveis em seus 1 milhão de entradas, e 83% delas são sites estrangeiros, o que obviamente é incontrolável em qualidade.

Portanto, Aquila não usou nenhum corpus chinês no Common Crawl, mas usou o próprio conjunto de dados Wudao de Zhiyuan acumulado nos últimos três anos. O conjunto de dados chinês Wudao vem de mais de 10.000 sites da China continental, portanto, seus dados chineses atendem aos requisitos de conformidade e são mais limpos.

Em geral, esta versão é apenas um ponto de partida. O objetivo de Zhiyuan é criar um conjunto completo de pipelines de iteração e evolução de modelo grande, para que o modelo grande continue a crescer com a adição de mais dados e mais recursos, e continuará ser de código aberto e aberto.

Vale a pena notar que o Aquila está disponível em placas gráficas de consumo. Por exemplo, o modelo 7B pode rodar em 16G ou até mesmo memória de vídeo menor.

Library (Flag) sistema de avaliação de modelo grande

Um sistema de avaliação de modelos de grande escala seguro, confiável, abrangente e objetivo também é muito importante para a inovação tecnológica e implementação industrial de modelos de grande escala.

Em primeiro lugar, para a comunidade acadêmica, se você deseja promover a inovação de grandes modelos, deve ter uma régua para medir as capacidades e a qualidade dos grandes modelos.

Em segundo lugar, para a indústria, a grande maioria das empresas optará por usar diretamente os grandes modelos existentes, em vez de desenvolvê-los do zero. Ao selecionar, um sistema de avaliação é necessário para ajudar a julgar. Afinal, grandes modelos básicos autodesenvolvidos dependem de enormes custos de energia de computação. Para desenvolver um modelo com 30 bilhões de parâmetros, os recursos necessários incluem poder de computação, dados etc., pelo menos 20 milhões.

Além disso, se é possível construir um sistema abrangente de avaliação de modelo em larga escala de "avaliação automatizada + avaliação subjetiva manual" e realizar o circuito fechado automático dos resultados da avaliação para a análise de capacidade do modelo e, em seguida, para a melhoria da capacidade de modelo, tem tornar-se um aspecto importante da inovação básica do modelo em larga escala. uma das barreiras.

Para resolver esse ponto problemático, o Zhiyuan Research Institute optou por dar prioridade ao lançamento do sistema de avaliação de modelos em grande escala Libra (Flag) e da plataforma aberta (flag.baai.ac.cn).

O sistema de avaliação de modelos em larga escala e a plataforma aberta Flag visam estabelecer benchmarks, métodos e ferramentas de avaliação científica, justa e aberta para auxiliar os pesquisadores na avaliação abrangente do desempenho de modelos básicos e algoritmos de treinamento e, ao mesmo tempo, explorar os uso de métodos de IA para alcançar A assistência da avaliação subjetiva melhora muito a eficiência e a objetividade da avaliação.

Especificamente, o sistema de avaliação de modelo em grande escala Flag constrói de forma inovadora uma estrutura de avaliação tridimensional de "indicador de tarefa-capacidade", que pode descrever detalhadamente o limite de capacidade cognitiva do modelo básico e visualizar os resultados da avaliação.

Atualmente, o sistema de avaliação de modelo de grande escala Flag inclui um total de mais de 600 dimensões de avaliação, incluindo 22 conjuntos de dados de avaliação e 84.433 perguntas, e conjuntos de dados de avaliação mais dimensionais estão sendo gradualmente integrados.

Além disso, o sistema de avaliação de modelos de larga escala Flag continuará a explorar a pesquisa interdisciplinar entre avaliação de modelos de linguagem em larga escala e disciplinas sociais como psicologia, educação e ética, a fim de avaliar modelos de linguagem em larga escala de forma mais abrangente e científica. .

Mais de 30 habilidades × 5 tarefas × 4 categorias de indicadores = mais de 600 avaliações dimensionais abrangentes

Série de modelos grandes visuais

Em termos de visão computacional, a equipe do Enlightenment 3.0 criou a série "Enlightenment Vision" de grandes modelos com percepção de cena geral e recursos complexos de processamento de tarefas.

Entre eles, é a tecnologia SOTA dessas 6 rajadas que constrói a base subjacente do "Iluminismo·Visão":

Modelo grande multimodal "Emu", modelo grande pré-treinado "EVA", modelo visual multitarefa "Painter", modelo de visão de segmentação de uso geral, modelo grande pré-treinamento gráfico "EVA-CLIP" e tecnologia de edição de vídeo "vid2vid-zero".

1. Emu: Completando tudo em uma sequência multimodal

Emu é um modelo grande que aceita entradas multimodais e produz saídas multimodais. Com base no caminho da tecnologia de aprendizado de contexto multimodal, o Emu pode aprender com sequências multimodais massivas, como texto gráfico, texto gráfico entrelaçado e texto de vídeo entrelaçado.

Após a conclusão do treinamento, o Emu pode concluir tudo no contexto de sequências multimodais, perceber, raciocinar e gerar dados de várias modalidades, como imagens, textos e vídeos, e concluir várias rodadas de diálogos de texto gráfico e gráficos de poucas amostras. -compreensão de texto, perguntas e respostas em vídeo, geração de texto para imagem, geração de imagem para imagem e outras tarefas multimodais.

2. EVA: O modelo básico visual de bilhões de níveis mais forte

endereço do projeto:

Endereço de papel:

O EVA combina o modelo de aprendizado semântico (CLIP) e o método de aprendizado de estrutura geométrica (MIM) e expande o modelo ViT padrão para 1 bilhão de parâmetros para treinamento. De uma só vez, ele alcançou o melhor desempenho da época em uma ampla gama de tarefas de percepção visual, como classificação ImageNet, detecção e segmentação COCO e classificação de vídeo Kinetics.

3. EVA-CLIP: O modelo CLIP de código aberto mais poderoso

Endereço do projeto: /tree/master/EVA-CLIP

Endereço de papel:

O EVA-CLIP, desenvolvido com o modelo básico de visão EVA como núcleo, foi iterado para 5 bilhões de parâmetros.

Comparado com o OpenCLIP anterior com uma taxa de precisão de 80,1%, o modelo EVA-CLIP tem uma taxa de precisão de 82,0% no ImageNet1K zero-sample top1. Em termos de precisão do ImageNet kNN, o mais recente modelo DINOv2 da Meta está no mesmo nível do EVA-CLIP de 1 bilhão de parâmetros.

4. Painter: O primeiro caminho tecnológico de "aprendizagem de imagem contextual"

endereço do projeto:

Endereço de papel:

A ideia central do modelo de visão geral A modelagem do Painter é "centrada na visão", usando imagens como entrada e saída para obter informações visuais contextuais, de modo a concluir diferentes tarefas visuais.

5. Modelo de segmentação universal de horizontes: tudo em um, divida tudo

O modelo de segmentação universal do horizonte tem uma poderosa capacidade de raciocínio de contexto visual e precisa apenas de um ou alguns exemplos de imagens e dicas visuais, e o modelo pode entender as intenções do usuário e concluir tarefas de segmentação semelhantes.

Simplificando, os usuários marcam e reconhecem uma classe de objetos na tela, podendo identificar e segmentar objetos semelhantes em lotes, seja na tela atual ou em outras telas ou ambientes de vídeo.

6. vid2vid-zero: a primeira tecnologia de edição de vídeo de amostra zero do setor

endereço do projeto:

Link do papel:

Site de demonstração:

A tecnologia de edição de vídeo de amostra zero "vid2vid-zero" usa as características dinâmicas do mecanismo de atenção pela primeira vez, combinadas com o modelo de difusão de imagem existente, para criar uma estrutura de modelo para edição de vídeo sem pré-treinamento de vídeo adicional. Agora, basta carregar um vídeo e, em seguida, inserir uma sequência de prompts de texto, você pode editar o vídeo com os atributos especificados.

O iluminador da pesquisa de modelos em larga escala da China

O Zhiyuan Research Institute, fundado em novembro de 2018, é o pioneiro na pesquisa de modelos em grande escala na China. Após cinco anos de desenvolvimento, tornou-se uma referência para a pesquisa de modelos em grande escala na China.

O que o torna diferente de outras instituições é que o Zhiyuan Research Institute é uma instituição de plataforma. No início de sua criação, o Zhiyuan Research Institute considerou a criação de um ecossistema de inovação de inteligência artificial como uma de suas missões e tarefas básicas.

Como Zhiyuan promoveu o desenvolvimento da pesquisa de modelos em larga escala na China desde a sua criação?

Na verdade, o estabelecimento do Instituto de Pesquisa Zhiyuan aconteceu bem a tempo para o surgimento de modelos estrangeiros em grande escala.

Falando nisso, a principal direção da pesquisa OpenAI estabelecida em 2015 é explorar a rota para AGI, e não é um modelo grande.

Após 2018, a OpenAI começou a se concentrar em modelos grandes e lançou o GPT com 117 milhões de parâmetros em junho. No mesmo ano, o Google também lançou um modelo de linguagem pré-treinado em larga escala BERT com 300 milhões de parâmetros.

Todo mundo percebeu que toda a tendência da indústria e tecnologia em 2018 é fazer um modelo maior.

À medida que o poder de computação usado pelo modelo aumenta, a Lei de Moore se torna a chamada "lei do modelo", ou seja, o poder de computação usado para treinar um grande modelo dobra em 3-4 meses.

Foi também em 2018 que foi criado o Zhiyuan Research Institute, que assumiu a liderança ao reunir os principais estudiosos da área de IA e iniciou a exploração de grandes modelos.

Como resultado, em 2021, Zhiyuan lançou sucessivamente dois grandes modelos de Enlightenment 1.0 e Enlightenment 2.0.

De acordo com Huang Tiejun, na coletiva de imprensa do Enlightenment 1.0 em março de 2021, a Zhiyuan Research julgou que a inteligência artificial mudou de um "grande modelo" para um novo estágio de "grande modelo". Desde então, o conceito de "grande modelo" foi entrou na visão pública.

Todos os anos, na Conferência de Zhiyuan, serão relatadas as três principais rotas técnicas para escalar o pico da AGI: grandes modelos, inteligência de vida e AI4Science. Essas três rotas não estão isoladas, elas interagem e se influenciam.

Hoje, a principal razão para a capacidade emergente de grandes modelos vem dos dados massivos por trás deles.

Os próprios dados linguísticos contêm conhecimento e inteligência ricos, que são extraídos por meio de modelos de grande escala, e redes neurais são usadas para expressar as leis por trás de dados complexos.

Esta é uma razão razoável pela qual uma das rotas técnicas do modelo grande pode levar à AGI.

Isso também explica por que Zhiyuan se concentrou inicialmente no modelo grande. Em março de 2021, o Enlightenment 1.0 foi lançado, seguido pelo Enlightenment 2.0 em junho.

Além do modelo grande, Zhiyuan também está constantemente explorando os outros dois caminhos que levam à AGI, "Life Intelligence" e "AI4Science".

Em 2022, Zhiyuan lançou a simulação mais precisa de Caenorhabditis elegans. Desta vez, Zhiyuan abriu a plataforma de simulação de vida "eVolution-eVolution" usada no estudo de nematóides artificiais para fornecer serviços online.

Tianyan é uma plataforma de simulação de rede de neurônios finos em ultragrande escala, com quatro recursos notáveis: a plataforma mais eficiente para simulação de rede de neurônios finos; suporte para simulação de rede neural em escala ultragrande; fornecer modelagem on-line única e conjunto de ferramentas de simulação; A interação visual de alta qualidade suporta simulação em tempo real e operação colaborativa visual.

Com base na plataforma Tianyan, realiza simulação de alta precisão da inteligência biológica, explora a essência da inteligência e promove a inteligência artificial geral inspirada na biologia. Além disso, a equipe Tianyan conectou Tianyan à nova geração de supercomputadores exascale do meu país - o supercomputador de nova geração Tianhe.

Através da implantação e operação bem-sucedidas de "Tianyan-Tianhe", a simulação do modelo da rede fina do córtex visual V1 do cérebro do mouse e outros modelos podem ser realizados, e o consumo de energia de cálculo pode ser reduzido em mais de 10 vezes, e a velocidade de cálculo pode ser aumentado em mais de 10 vezes, atingindo o mais extremo do mundo. O desempenho da simulação de rede de neurônios finos estabelece uma base sólida para a realização da simulação fina de todo o cérebro humano.

Agora, dois anos depois, Zhiyuan lançou a série Enlightenment 3.0 de modelos grandes novamente.

Em termos de posicionamento, desde o lançamento do Enlightenment 2.0, Zhiyuan, como uma organização de plataforma sem fins lucrativos, não apenas fabrica modelos e modelos, mas também gradualmente faz contribuições únicas para a construção da ecologia central de grandes modelos.

Entre eles, inclui classificação de dados por trás do modelo, teste de modelo, teste de algoritmo, código aberto e organizações abertas e um layout abrangente de plataformas de poder de computação.

Por que Zhiyuan fez tal mudança?

Porque Zhiyuan entende profundamente que o modelo grande em si não é a forma de produto mais importante na era do modelo grande, mas uma nova era caracterizada pela sistematização e serviços intelectuais.

Atualmente, o modelo grande continuará evoluindo, e o que permanece inalterado é a iteração técnica por trás dele, ou seja, o algoritmo para treinar o modelo.

O modelo mais recente que você vê todos os dias é apenas um resultado consolidado. O que importa é se o algoritmo para treinar o modelo é avançado, se o custo é efetivamente reduzido e se a capacidade por trás dele é explicável e controlável.

Portanto, como organização de plataforma, o que Zhiyuan precisa fazer é reunir os algoritmos dos modelos de treinamento do setor em um todo iterativo.

Este trabalho é necessário. Zhiyuan não apenas trabalha no próprio algoritmo do modelo de grande escala, mas também gasta mais tempo e energia no desenvolvimento do sistema técnico do modelo de grande escala.

Por exemplo, Zhiyuan lançou uma plataforma de serviço de computação em nuvem em grande escala "Jiuding Smart Computing Platform" para fornecer poder de computação, dados e suporte de algoritmo para treinamento de modelo em grande escala.

Claro, não é apenas a própria força de Zhiyuan, mas também os institutos de pesquisa da indústria-universidade para colaborar e iterar de maneira aberta.

Em março deste ano, Zhiyuan lançou o sistema de código aberto FlagOpen Feizhi com tecnologia de modelo em grande escala, que é um sistema de código aberto e software aberto para modelos em grande escala construídos em conjunto com várias unidades de pesquisa da indústria e da universidade.

Como disse o reitor Huang Tiejun: "Esperamos que, agora que o modelo grande se tornou a principal força no desenvolvimento da indústria de inteligência artificial, façamos mais trabalho de apoio no futuro e contribuamos com uma força única para esta era".

Você pode perguntar, qual é a maior característica da Conferência Zhiyuan deste ano em comparação com as anteriores?

O estilo é consistente, resumido em duas palavras: profissional e puro.

A Conferência de Zhiyuan foi realizada sem objetivos realistas e não prestou atenção aos produtos e investidores.

Aqui, os líderes da indústria podem apresentar opiniões pessoais e fazer julgamentos de uma perspectiva profissional e, claro, incluir colisões e debates das principais opiniões, sem ter que considerar muitos fatores realistas.

"Padrinho da IA" Geoffrey Hinton participou da Conferência de Zhiyuan pela primeira vez este ano. Há algum tempo, ele se demitiu do Google porque se arrependeu do trabalho de sua vida. Ele publicou as últimas opiniões sobre segurança de inteligência artificial.

Como sempre, o "otimista" Yann LeCun não se preocupará com os riscos da inteligência artificial como a maioria das pessoas. Em sua opinião, não é razoável frear antes de o carro ser construído. No momento, esforços devem ser feitos para desenvolver uma tecnologia de IA mais avançada e algoritmos.

Ao mesmo tempo, você também verá um confronto feroz de pontos de vista na reunião. Max Tegmark sobre como controlar o risco de IA. Embora não se possa dizer que seja completamente oposto ao LeCun, também existem grandes diferenças.

Este é o maior destaque da Conferência Zhiyuan e também é um estilo consistente.

A singularidade deste posicionamento tornou-se cada vez mais importante nos últimos anos.

O desenvolvimento da inteligência artificial tem um impacto crescente no mundo e na China, então todos precisam de uma ocasião para expressar suas opiniões de forma pura, incluindo colisões ideológicas e debates acalorados.

O significado disso é que quanto mais profissionais, puras, neutras e abertas forem as conferências, mais propício será para todos compreenderem melhor essa era de rápido desenvolvimento.

Em países estrangeiros, a Conferência de Zhiyuan também tem uma excelente reputação.Organizações internacionais consideram a Conferência de Zhiyuan como uma janela para cooperação com a China em pesquisa de inteligência artificial.

A origem do nome Zhiyuan também é a fonte da inteligência. Portanto, a realização da Conferência Zhiyuan tornou-se um evento marcante para promover o desenvolvimento ecológico da inteligência artificial.

A forte lista de convidados, a riqueza da definição de tópicos e a profundidade das discussões de conteúdo criaram uma Conferência Zhiyuan única.

Este importante evento exclusivo para especialistas em IA tornou-se um brilhante cartão de visita no campo da IA na China.

Referências:

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)