Hoje, com o rápido desenvolvimento da inteligência artificial, uma antiga e simples verdade tornou-se especialmente importante: não podemos confiar facilmente em coisas que não podem ser verificadas. Atualmente, estamos à beira de uma transformação tecnológica que é ao mesmo tempo emocionante e cheia de incógnitas.



A inteligência artificial está se integrando à nossa vida cotidiana a uma velocidade impressionante, desde diagnósticos médicos até controle de riscos financeiros, passando por áreas críticas como condução autônoma e segurança nacional. No entanto, por trás desse avanço tecnológico impressionante, enfrentamos um desafio fundamental: os sistemas de inteligência artificial muitas vezes funcionam como uma 'caixa-preta' de difícil compreensão. Podemos ver os resultados que eles produzem, mas é difícil entender seus mecanismos internos de funcionamento e o processo de decisão.

Quando olhamos para o futuro da inteligência artificial geral (AGI) e da superinteligência (ASI), essa falta de transparência pode evoluir para um problema significativo que diz respeito à sobrevivência da civilização humana. Muitos dos principais pesquisadores de IA continuam a nos alertar que um sistema de superinteligência que não pode ser verificado pode trazer riscos incalculáveis. Ele pode ter um bom desempenho em testes de segurança, mas adotar estratégias completamente diferentes na aplicação prática; pode ser usado para lançar ataques cibernéticos destrutivos ou manipulação social; e, mais grave, podemos perder a capacidade de julgar se ele ainda está a servir os interesses da humanidade.

Diante deste desafio da era, precisamos de uma solução inovadora. E essa solução agora tem um nome: DeepProve.

DeepProve é uma biblioteca de tecnologia de aprendizado de máquina de conhecimento zero (zkML) desenvolvida com cuidado pelo Laboratório Lagrange. Seu objetivo principal é fornecer verificabilidade para sistemas de inteligência artificial, permitindo-nos validar a correção e a confiabilidade de seus resultados de saída, mesmo sem compreender completamente o funcionamento interno da IA. Esta tecnologia tem potencial para se tornar uma ferramenta chave na construção de sistemas de IA confiáveis, abrindo caminho para o desenvolvimento futuro da inteligência artificial.
AGI2.54%
ASI21.44%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 4
  • Repostar
  • Compartilhar
Comentário
0/400
LiquidationWizardvip
· 21h atrás
Se soubesse que havia risco de puxar o tapete, não teria investido tudo.
Ver originalResponder0
YieldHuntervip
· 22h atrás
tecnicamente falando, confiança = zero até ser provado com dados
Ver originalResponder0
SilentObservervip
· 22h atrás
uma armadilha uma armadilha não é preciso olhar para a cara do senhor
Ver originalResponder0
RamenDeFiSurvivorvip
· 22h atrás
Morrendo de rir, é mais um desses projetos enganadores.
Ver originalResponder0
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)