banner
Centro de notícias
Amplo conhecimento em vendas e produção

A Apple evita o hype de “IA” na palestra da WWDC, inserindo ML em produtos

Jun 13, 2023

Veja a versão não AMP em arstechnica.com

Em meio a novos produtos impressionantes, como o Apple Silicon Mac Pro e o Apple Vision Pro revelados no evento principal da WWDC 2023 na segunda-feira, os apresentadores da Apple nunca mencionaram o termo "IA", uma omissão notável, visto que seus concorrentes como Microsoft e Google têm se concentrado fortemente em IA generativa no momento. Ainda assim, a IA fez parte da apresentação da Apple, apenas por outros nomes.

Embora "IA" seja um termo muito ambíguo atualmente, cercado por avanços surpreendentes e exageros extremos, a Apple optou por evitar essa associação e, em vez disso, concentrou-se em termos como "aprendizado de máquina" e "ML". Por exemplo, durante a demonstração do iOS 17, o vice-presidente sênior de engenharia de software, Craig Federighi, falou sobre melhorias na correção automática e no ditado:

A correção automática é alimentada pelo aprendizado de máquina no dispositivo e, ao longo dos anos, continuamos a aprimorar esses modelos. O teclado agora utiliza um modelo de linguagem transformador, que é o que há de mais moderno em previsão de palavras, tornando a correção automática mais precisa do que nunca. E com o poder do Apple Silicon, o iPhone pode executar este modelo toda vez que você tocar em uma tecla.

Notavelmente, a Apple mencionou o termo AI "transformador" em uma palestra da Apple. A empresa falou especificamente sobre um “modelo de linguagem transformadora”, o que significa que seu modelo de IA usa a arquitetura transformadora que tem impulsionado muitas inovações generativas de IA, como o gerador de imagens DALL-E e o chatbot ChatGPT.

Um modelo de transformador (um conceito introduzido pela primeira vez em 2017) é um tipo de arquitetura de rede neural usada no processamento de linguagem natural (NLP) que emprega um mecanismo de auto-atenção, permitindo priorizar diferentes palavras ou elementos em uma sequência. Sua capacidade de processar entradas em paralelo levou a melhorias significativas de eficiência e avançou em tarefas de PNL, como tradução, resumo e resposta a perguntas.

Aparentemente, o novo modelo de transformador da Apple no iOS 17 permite autocorreções em nível de frase que podem terminar uma palavra ou uma frase inteira quando você pressiona a barra de espaço. Ele também aprende com seu estilo de escrita, que orienta suas sugestões.

Todo esse processamento de IA no dispositivo é bastante fácil para a Apple por causa de uma parte especial dos chips Apple Silicon (e chips anteriores da Apple, começando com o A11 em 2017) chamada Neural Engine, projetada para acelerar aplicativos de aprendizado de máquina. A Apple também disse que o ditado "obtém um novo modelo de reconhecimento de fala baseado em transformador que aproveita o Neural Engine para tornar o ditado ainda mais preciso".

Durante a palestra, a Apple também mencionou "aprendizado de máquina" várias outras vezes: ao descrever um novo recurso de tela de bloqueio do iPad ("Quando você seleciona uma Live Photo, usamos um modelo avançado de aprendizado de máquina para sintetizar quadros adicionais"); Recursos de PDF do iPadOS ("Graças aos novos modelos de aprendizado de máquina, o iPadOS pode identificar os campos em um PDF para que você possa usar o preenchimento automático para preenchê-los rapidamente com informações como nomes, endereços e e-mails de seus contatos."); um recurso AirPods Adaptive Audio ("Com Volume Personalizado, usamos aprendizado de máquina para entender suas preferências de audição ao longo do tempo"); e um recurso de widget do Apple Watch chamado Smart Stack ("Smart Stack usa aprendizado de máquina para mostrar informações relevantes quando você precisa").

A Apple também lançou um novo aplicativo chamado Journal, que permite o registro pessoal de texto e imagem (como um diário interativo), bloqueado e criptografado em seu iPhone. A Apple disse que a IA desempenha um papel, mas não usou o termo "IA".

“Usando o aprendizado de máquina no dispositivo, seu iPhone pode criar sugestões personalizadas de momentos para inspirar sua escrita”, disse a Apple. "Sugestões serão selecionadas de forma inteligente a partir de informações em seu iPhone, como suas fotos, localização, música, treinos e muito mais. E você controla o que incluir quando ativar as Sugestões e quais salvar em seu Diário."

Por fim, durante a demonstração do novo Apple Vision Pro, a empresa revelou que a imagem em movimento dos olhos de um usuário na frente dos óculos vem de um avatar 3D especial criado pela digitalização de seu rosto - e você adivinhou, aprendizado de máquina.