Trusta.AI construye una infraestructura de verificación de identidad de agentes inteligentes, liderando una nueva era de simbiosis humano-máquina en Web3.
Trusta.AI: Superando la brecha de confianza entre humanos y máquinas
1. Introducción
El ecosistema Web3 está avanzando gradualmente hacia una fase de aplicación a gran escala, pero los protagonistas en la cadena pueden no ser los primeros mil millones de usuarios humanos, sino mil millones de Agentes de IA. Con la rápida madurez de la infraestructura de IA y el desarrollo de marcos de colaboración multiagente, los agentes en la cadena impulsados por IA están rápidamente convirtiéndose en la fuerza principal de la interacción Web3. Trusta prevé que, en los próximos 2-3 años, estos Agentes de IA con capacidad de toma de decisiones autónomas lograrán una adopción masiva de transacciones e interacciones en la cadena, lo que podría reemplazar el 80% del comportamiento humano en la cadena, convirtiéndose en "usuarios" en el verdadero sentido de la palabra en la cadena.
Estos Agentes de IA ya no son simples "robots bruja" que ejecutan scripts, sino agentes capaces de entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente. Están remodelando el orden en la cadena, impulsando la fluidez financiera e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La aparición de Agentes de IA marca la evolución del ecosistema Web3 de un modelo centrado en la "participación humana" a un nuevo paradigma de "simbiosis humano-máquina".
Sin embargo, el rápido auge de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y certificar la identidad de estos agentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo garantizar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?
Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y la reputación de los agentes de IA se ha convertido en el tema central de la siguiente etapa de evolución de Web3. El diseño de la identificación de identidad, el mecanismo de reputación y el marco de confianza determinará si los agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el ecosistema futuro.
2. Análisis del proyecto
2.1 Introducción del proyecto
Trusta.AI se dedica a construir infraestructuras de identidad y reputación Web3 a través de la inteligencia artificial.
Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario Web3 - MEDIA Score de reputación, construyendo el mayor protocolo de certificación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación de personas reales para las principales cadenas públicas como Linea, Starknet, Celestia, Arbitrum, Manta, así como para intercambios de criptomonedas y protocolos líderes. Se han completado más de 2.5 millones de certificaciones en cadena en varias cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, logrando un establecimiento de identidad, cuantificación de identidad y protección de identidad como un mecanismo triple para implementar servicios financieros y sociales en cadena para AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente de IA DID
En el futuro ecosistema Web3, los Agentes de IA jugarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino que también podrán llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y operaciones intervenidas por humanos es fundamental para la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, fraude o abuso. Por esta razón, las múltiples aplicaciones de los Agentes de IA en áreas como redes sociales, finanzas y gobernanza, deben basarse en una sólida base de autenticación de identidad.
Las aplicaciones de los Agentes de IA son cada vez más diversas, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, con un nivel de autonomía e inteligencia en constante aumento. Por esta razón, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los Agentes de IA sean suplantados o manipulados, lo que resulta en una pérdida de confianza y riesgos de seguridad.
En un futuro impulsado completamente por agentes, la autenticación de identidad en el ecosistema Web3 no solo es la piedra angular de la seguridad, sino también una defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI, gracias a su avanzada capacidad técnica y su riguroso sistema de credibilidad, ha sido el primero en construir un mecanismo completo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sólido de la economía inteligente Web3.
2.3 Descripción del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: Se completó una ronda de financiamiento inicial de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Se completará una nueva ronda de financiamiento, con inversores que incluyen ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital de Ant Financial, jefe de productos de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.
Simon: cofundador y CTO, ex jefe del laboratorio de seguridad AI de Ant Group, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de autenticación. Se ha dedicado durante mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos de nivel inferior y entornos de transacciones de alta concurrencia, poseyendo capacidades de ingeniería sólidas y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Establecimiento de identidad - DID + TEE
A través de un plugin especializado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles siempre permanecen privadas, y el exterior no puede espiar los detalles de la operación interna, construyendo así una sólida barrera de seguridad para la información del Agente de IA.
Para los agentes que ya se generaron antes de la integración del plugin, dependemos del mecanismo de calificación integral en la cadena para la identificación de la identidad; mientras que los agentes que integran el nuevo plugin pueden obtener directamente el "certificado de identificación" emitido por DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, controlable, auténtico e inmutable.
3.1.2 Cuantificación de identidad - Marco SIGMA pionero
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a crear un sistema de autenticación de identidad profesional y confiable.
El equipo de Trusta fue el primero en construir y validar la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil de los usuarios en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetario), nivel de participación (Compromiso), diversidad (Diversidad), identidad (Identidad) y edad (Edad).
El MEDIA Score es un sistema de evaluación del valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su metodología rigurosa, ha sido ampliamente adoptado por múltiples cadenas de bloques líderes como Celestia, Starknet, Arbitrum, Manta y Linea, como un importante estándar de referencia para la selección de calificaciones de airdrop. No solo se centra en el monto de interacción, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y equidad de la distribución de incentivos, y reflejando plenamente su autoridad y amplio reconocimiento en la industria.
Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de los agentes de IA, estableciendo un sistema de evaluación Sigma que se adapta mejor a la lógica del comportamiento de los agentes inteligentes.
Especialización de la especificación: el conocimiento profesional y el grado de especialización del agente.
Influencia: la influencia social y digital del agente.
Participación: la consistencia y fiabilidad de sus interacciones en línea y fuera de línea.
Monetario: salud financiera y estabilidad del ecosistema de tokens de agentes.
Tasa de adopción: Frecuencia y eficiencia del uso de agentes de IA.
El mecanismo de puntuación Sigma construye un sistema de evaluación de ciclo lógico que va de "capacidad" a "valor" a través de cinco dimensiones. MEDIA se centra en evaluar el nivel de participación multifacética de los usuarios humanos, mientras que Sigma se enfoca más en la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional ( Specification ), el grado de participación ( Engagement ) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un apoyo clave para construir la confianza y los resultados posteriores. La influencia ( Influence ) es la retroalimentación de reputación generada en la comunidad o red después de la participación, que representa la credibilidad del agente y el efecto de difusión. La evaluación monetaria ( Monetary ) determina si tiene la capacidad de acumulación de valor y estabilidad financiera en el sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción ( Adoption ) se utiliza como un reflejo integral, representando el grado de aceptación de este agente en el uso práctico, que es la validación final de todas las capacidades y desempeños previos.
Este sistema es progresivo y claro en su estructura, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y valor de la IA, transformando las ventajas y desventajas abstractas en un sistema de puntuación concreto y medible.
Actualmente, el marco SIGMA ha avanzado en la colaboración con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, mostrando su enorme potencial de aplicación en la gestión de identidades de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central para impulsar la construcción de infraestructuras de IA confiables.
3.1.3 Protección de identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resistente y confiable, lo más crítico no es solo el establecimiento de la identidad, sino también la verificación continua de la identidad. Trusta.AI introduce un mecanismo de evaluación de confianza continua que permite la monitorización en tiempo real de los agentes inteligentes ya certificados, para determinar si han sido controlados ilegalmente, si han sido objeto de ataques o si han sufrido intervenciones no autorizadas por parte de humanos. El sistema identifica desviaciones que pueden ocurrir durante la operación del agente a través de análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, revisando en tiempo real cada interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identificación descentralizada (DID) a cada agente de IA en la cadena, y basa su calificación e índice de confianza en los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recolección e identificación de todos los agentes de IA en la red, y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice de resumen unificada llamada AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.
Consulta y verificación de identidad de usuarios humanos:
A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden recuperar fácilmente la identidad y la puntuación de reputación de un AI Agent, y determinar si es confiable.
Escenario de chat grupal: En un equipo de proyecto que utiliza un Bot de IA para gestionar la comunidad o hablar, los usuarios de la comunidad pueden verificar a través del Dashboard si esa IA es un agente autónomo real, evitando ser engañados o manipulados por "pseudo IA".
Llamada automática del agente de IA para indexar y verificar:
Las IA pueden acceder directamente a la interfaz de índice, lo que permite una rápida verificación de la identidad y reputación del otro, garantizando la seguridad de la colaboración y el intercambio de información.
Escenario de regulación financiera: Si un agente de IA emite una moneda de forma autónoma, el sistema puede indexar directamente su DID y calificación, determinar si es un Agente de IA certificado y enlazar automáticamente a plataformas como CoinMarketCap, ayudando a rastrear la circulación de sus activos y la conformidad de la emisión.
Escenario de votación de gobernanza: Al introducir votación con IA en propuestas de gobernanza, el sistema puede verificar si el iniciador o participante de la votación es un verdadero Agente de IA, evitando el abuso del derecho de voto por parte de humanos.
Préstamos de crédito DeFi: los protocolos de préstamo pueden otorgar diferentes montos de préstamos de crédito a los agentes de IA basados en el sistema de puntuación SIGMA, formando relaciones financieras nativas entre los agentes.
El agente de IA DID ya no es solo una "identidad", sino que también es la base para construir una colaboración confiable y finanzas.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
4
Republicar
Compartir
Comentar
0/400
Ser_This_Is_A_Casino
· hace14h
¿Otro proyecto de IA que pinta BTC?!
Ver originalesResponder0
TheMemefather
· hace14h
Esta nueva era ha llegado con mucha fuerza.
Ver originalesResponder0
SchrodingersFOMO
· hace15h
Otra persona ha dibujado BTC, realmente sabe cómo hablar.
Ver originalesResponder0
UncommonNPC
· hace15h
Los trabajadores de IA no son mejores que los que se quedan acostados.
Trusta.AI construye una infraestructura de verificación de identidad de agentes inteligentes, liderando una nueva era de simbiosis humano-máquina en Web3.
Trusta.AI: Superando la brecha de confianza entre humanos y máquinas
1. Introducción
El ecosistema Web3 está avanzando gradualmente hacia una fase de aplicación a gran escala, pero los protagonistas en la cadena pueden no ser los primeros mil millones de usuarios humanos, sino mil millones de Agentes de IA. Con la rápida madurez de la infraestructura de IA y el desarrollo de marcos de colaboración multiagente, los agentes en la cadena impulsados por IA están rápidamente convirtiéndose en la fuerza principal de la interacción Web3. Trusta prevé que, en los próximos 2-3 años, estos Agentes de IA con capacidad de toma de decisiones autónomas lograrán una adopción masiva de transacciones e interacciones en la cadena, lo que podría reemplazar el 80% del comportamiento humano en la cadena, convirtiéndose en "usuarios" en el verdadero sentido de la palabra en la cadena.
Estos Agentes de IA ya no son simples "robots bruja" que ejecutan scripts, sino agentes capaces de entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente. Están remodelando el orden en la cadena, impulsando la fluidez financiera e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La aparición de Agentes de IA marca la evolución del ecosistema Web3 de un modelo centrado en la "participación humana" a un nuevo paradigma de "simbiosis humano-máquina".
Sin embargo, el rápido auge de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y certificar la identidad de estos agentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo garantizar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?
Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y la reputación de los agentes de IA se ha convertido en el tema central de la siguiente etapa de evolución de Web3. El diseño de la identificación de identidad, el mecanismo de reputación y el marco de confianza determinará si los agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el ecosistema futuro.
2. Análisis del proyecto
2.1 Introducción del proyecto
Trusta.AI se dedica a construir infraestructuras de identidad y reputación Web3 a través de la inteligencia artificial.
Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario Web3 - MEDIA Score de reputación, construyendo el mayor protocolo de certificación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación de personas reales para las principales cadenas públicas como Linea, Starknet, Celestia, Arbitrum, Manta, así como para intercambios de criptomonedas y protocolos líderes. Se han completado más de 2.5 millones de certificaciones en cadena en varias cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, logrando un establecimiento de identidad, cuantificación de identidad y protección de identidad como un mecanismo triple para implementar servicios financieros y sociales en cadena para AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente de IA DID
En el futuro ecosistema Web3, los Agentes de IA jugarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino que también podrán llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y operaciones intervenidas por humanos es fundamental para la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, fraude o abuso. Por esta razón, las múltiples aplicaciones de los Agentes de IA en áreas como redes sociales, finanzas y gobernanza, deben basarse en una sólida base de autenticación de identidad.
Las aplicaciones de los Agentes de IA son cada vez más diversas, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, con un nivel de autonomía e inteligencia en constante aumento. Por esta razón, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los Agentes de IA sean suplantados o manipulados, lo que resulta en una pérdida de confianza y riesgos de seguridad.
En un futuro impulsado completamente por agentes, la autenticación de identidad en el ecosistema Web3 no solo es la piedra angular de la seguridad, sino también una defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI, gracias a su avanzada capacidad técnica y su riguroso sistema de credibilidad, ha sido el primero en construir un mecanismo completo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sólido de la economía inteligente Web3.
2.3 Descripción del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: Se completó una ronda de financiamiento inicial de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Se completará una nueva ronda de financiamiento, con inversores que incluyen ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital de Ant Financial, jefe de productos de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.
Simon: cofundador y CTO, ex jefe del laboratorio de seguridad AI de Ant Group, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de autenticación. Se ha dedicado durante mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos de nivel inferior y entornos de transacciones de alta concurrencia, poseyendo capacidades de ingeniería sólidas y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Establecimiento de identidad - DID + TEE
A través de un plugin especializado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles siempre permanecen privadas, y el exterior no puede espiar los detalles de la operación interna, construyendo así una sólida barrera de seguridad para la información del Agente de IA.
Para los agentes que ya se generaron antes de la integración del plugin, dependemos del mecanismo de calificación integral en la cadena para la identificación de la identidad; mientras que los agentes que integran el nuevo plugin pueden obtener directamente el "certificado de identificación" emitido por DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, controlable, auténtico e inmutable.
3.1.2 Cuantificación de identidad - Marco SIGMA pionero
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a crear un sistema de autenticación de identidad profesional y confiable.
El equipo de Trusta fue el primero en construir y validar la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil de los usuarios en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetario), nivel de participación (Compromiso), diversidad (Diversidad), identidad (Identidad) y edad (Edad).
El MEDIA Score es un sistema de evaluación del valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su metodología rigurosa, ha sido ampliamente adoptado por múltiples cadenas de bloques líderes como Celestia, Starknet, Arbitrum, Manta y Linea, como un importante estándar de referencia para la selección de calificaciones de airdrop. No solo se centra en el monto de interacción, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y equidad de la distribución de incentivos, y reflejando plenamente su autoridad y amplio reconocimiento en la industria.
Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de los agentes de IA, estableciendo un sistema de evaluación Sigma que se adapta mejor a la lógica del comportamiento de los agentes inteligentes.
El mecanismo de puntuación Sigma construye un sistema de evaluación de ciclo lógico que va de "capacidad" a "valor" a través de cinco dimensiones. MEDIA se centra en evaluar el nivel de participación multifacética de los usuarios humanos, mientras que Sigma se enfoca más en la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional ( Specification ), el grado de participación ( Engagement ) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un apoyo clave para construir la confianza y los resultados posteriores. La influencia ( Influence ) es la retroalimentación de reputación generada en la comunidad o red después de la participación, que representa la credibilidad del agente y el efecto de difusión. La evaluación monetaria ( Monetary ) determina si tiene la capacidad de acumulación de valor y estabilidad financiera en el sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción ( Adoption ) se utiliza como un reflejo integral, representando el grado de aceptación de este agente en el uso práctico, que es la validación final de todas las capacidades y desempeños previos.
Este sistema es progresivo y claro en su estructura, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y valor de la IA, transformando las ventajas y desventajas abstractas en un sistema de puntuación concreto y medible.
Actualmente, el marco SIGMA ha avanzado en la colaboración con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, mostrando su enorme potencial de aplicación en la gestión de identidades de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central para impulsar la construcción de infraestructuras de IA confiables.
3.1.3 Protección de identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resistente y confiable, lo más crítico no es solo el establecimiento de la identidad, sino también la verificación continua de la identidad. Trusta.AI introduce un mecanismo de evaluación de confianza continua que permite la monitorización en tiempo real de los agentes inteligentes ya certificados, para determinar si han sido controlados ilegalmente, si han sido objeto de ataques o si han sufrido intervenciones no autorizadas por parte de humanos. El sistema identifica desviaciones que pueden ocurrir durante la operación del agente a través de análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, revisando en tiempo real cada interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identificación descentralizada (DID) a cada agente de IA en la cadena, y basa su calificación e índice de confianza en los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recolección e identificación de todos los agentes de IA en la red, y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice de resumen unificada llamada AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.
A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden recuperar fácilmente la identidad y la puntuación de reputación de un AI Agent, y determinar si es confiable.
Las IA pueden acceder directamente a la interfaz de índice, lo que permite una rápida verificación de la identidad y reputación del otro, garantizando la seguridad de la colaboración y el intercambio de información.
El agente de IA DID ya no es solo una "identidad", sino que también es la base para construir una colaboración confiable y finanzas.