- os modelos melhoram gradualmente, mas nada de mágico
- 1ª onda de aplicativos de IA para consumidores... mas são coisas como companheiros de IA, pornografia, música de IA, filmes, etc.
- isso embala a humanidade para o nível 2 da terra dos gooners ( o 1º foi tiktok, insta etc) tornando-os mais complacentes
- as taxas de natalidade continuam a diminuir como resultado
- os robôs acabam por substituir muitos papéis que os humanos desempenham hoje (robôs domésticos, robôs trabalhadores)
- os agentes não são úteis, o que desencadeia um período de atualização / criação de nova infraestrutura específica para agentes + camada de middleware.
- uma nova arquitetura LLM é descoberta, que acelera a inteligência do modelo através de computação em tempo de teste em comparação com o pré-treinamento
- isto resulta em modelos menores ( que cabem em dispositivos portáteis) para terem um desempenho melhor do que os modelos maiores atuais.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
linha do tempo alternativa de ai:
- sem AGI por pelo menos 10+ anos
- os modelos melhoram gradualmente, mas nada de mágico
- 1ª onda de aplicativos de IA para consumidores... mas são coisas como companheiros de IA, pornografia, música de IA, filmes, etc.
- isso embala a humanidade para o nível 2 da terra dos gooners ( o 1º foi tiktok, insta etc) tornando-os mais complacentes
- as taxas de natalidade continuam a diminuir como resultado
- os robôs acabam por substituir muitos papéis que os humanos desempenham hoje (robôs domésticos, robôs trabalhadores)
- os agentes não são úteis, o que desencadeia um período de atualização / criação de nova infraestrutura específica para agentes + camada de middleware.
- uma nova arquitetura LLM é descoberta, que acelera a inteligência do modelo através de computação em tempo de teste em comparação com o pré-treinamento
- isto resulta em modelos menores ( que cabem em dispositivos portáteis) para terem um desempenho melhor do que os modelos maiores atuais.