Home Tecnologia Gurman: recursos de IA do iOS 18 serão alimentados por LLM ‘inteiramente no dispositivo’, oferecendo benefícios de privacidade e velocidade – 9to5Mac

Gurman: recursos de IA do iOS 18 serão alimentados por LLM ‘inteiramente no dispositivo’, oferecendo benefícios de privacidade e velocidade – 9to5Mac

Por Humberto Marchezini


Conforme indicado por grande parte do material de pesquisa que a Apple publicou nos últimos meses, a empresa está investindo pesadamente em todos os tipos de tecnologias de inteligência artificial. A Apple anunciará sua estratégia de IA em junho na WWDC, como parte do iOS 18 e de suas outras novas versões de sistema operacional.

No último boletim informativo Power On, Mark Gurman diz esperar que os novos recursos de IA do iPhone sejam inteiramente alimentados por um modelo de linguagem grande off-line, no dispositivo, desenvolvido pela Apple. Você pode esperar que a Apple promova os benefícios de privacidade e velocidade dessa abordagem.

9to5Mac encontrou anteriormente referências de código no iOS 17.4 que se referiam a um modelo no dispositivo chamado “Ajax”. A Apple também está trabalhando em versões do Ajax hospedadas em servidor.

A desvantagem dos LLMs no dispositivo é que eles não podem ser tão poderosos quanto os modelos executados em enormes farms de servidores, com dezenas de bilhões de parâmetros e atualizando continuamente os dados por trás deles.

No entanto, os engenheiros da Apple provavelmente poderão aproveitar a integração vertical full stack de suas plataformas, com software ajustado aos chips de silício da Apple dentro de seus dispositivos, para aproveitar ao máximo uma abordagem no dispositivo. Os modelos no dispositivo geralmente respondem muito mais rapidamente do que trafegar uma solicitação por meio de um serviço de nuvem e também têm a vantagem de poder trabalhar off-line em locais sem conectividade ou com conectividade limitada.

Embora os LLMs no dispositivo possam não ter o mesmo rico banco de dados de conhecimento incorporado que algo como ChatGPT para responder perguntas sobre todos os tipos de curiosidades aleatórias, eles podem ser ajustados para serem muito capazes em muitas tarefas. Você pode imaginar que um LLM no dispositivo poderia gerar respostas automáticas sofisticadas para mensagens ou melhorar a interpretação de muitas solicitações comuns da Siri, por exemplo.

Também se encaixa perfeitamente na adesão rigorosa da Apple à privacidade. Não há mal nenhum em misturar todos os seus e-mails e mensagens de texto baixados por meio de um modelo no dispositivo, pois os dados permanecem locais.

Os modelos no dispositivo também podem realizar tarefas generativas de IA, como criação de documentos ou imagens, com base em prompts, para obter um resultado decente. A Apple ainda tem flexibilidade para faça parceria com uma empresa como o Google recorrer a algo como Gemini no servidor para determinadas tarefas também.

Saberemos com certeza o que a Apple planeja fazer quando anunciar oficialmente sua estratégia de IA na WWDC. A palestra começa em 10 de junho, onde a empresa revelará todos os novos recursos de software que chegarão ao iPhone, iPad, Mac, Apple Watch, Apple TV, Vision Pro e muito mais.

FTC: Usamos links de afiliados automotivos para geração de renda. Mais.



Source link

Related Articles

Deixe um comentário