Archive April 9, 2025

Shopify Abraça o Trabalho com IA

🏬 O memo do CEO da Shopify vai dar o que falar nas próximas semanas. Concordo com a filosofia e acho que aponta um caminho a ser seguido.

Seguem os pontos principais do memo:

1. Utilizar a IA de forma eficaz é agora uma expectativa fundamental para todos na Shopify. Hoje, ela é uma ferramenta para todas as áreas e só vai se tornar mais importante. Francamente, não acho viável optar por não aprender a aplicar IA na sua área de atuação; você pode tentar, mas quero ser honesto: não vejo isso funcionando hoje, e com certeza não funcionará no futuro. A estagnação é quase certa — e estagnação é um fracasso em câmera lenta. Se você não está subindo, está escorregando.

2. A IA deve fazer parte da fase de prototipagem do GSD. A fase de protótipo de qualquer projeto GSD deve ser dominada pela exploração com IA. Prototipar serve para aprender e gerar informação. A IA acelera esse processo de forma dramática. Você pode aprender a produzir algo que outros colegas consigam analisar, utilizar e compreender em uma fração do tempo que costumava levar.

3. Adicionaremos perguntas sobre o uso de IA aos nossos questionários de avaliação de desempenho e revisão entre pares. Aprender a usar IA bem é uma habilidade nada óbvia. Minha percepção é que muitas pessoas desistem após escrever um prompt e não receber exatamente o que esperavam. Aprender a criar prompts e carregar o contexto corretamente é importante, e obter feedback dos colegas sobre como isso está indo será valioso.

4. O aprendizado é autodirigido, mas compartilhe o que você aprender. Você tem acesso ao máximo de ferramentas de IA de ponta possível. Temos o chat.shopify.io há anos. Desenvolvedores têm acesso ao Proxy, Copilot, Cursor, Claude Code — tudo pré-configurado e pronto para uso. Vamos aprender e nos adaptar juntos, como um time. Vamos compartilhar conquistas (e tropeços!) uns com os outros enquanto experimentamos novas capacidades de IA, e vamos dedicar tempo para integração da IA nas nossas análises mensais de negócios e ciclos de desenvolvimento de produto. O Slack e o Vault têm muitos espaços onde as pessoas compartilham os prompts que criaram, como os canais #revenue-ai-use-cases e #ai-centaurs.

5. Antes de solicitar mais pessoas ou recursos, os times devem demonstrar por que não conseguem realizar o que precisam com o uso de IA. Como seria essa área se agentes autônomos de IA já fizessem parte da equipe? Essa pergunta pode levar a discussões e projetos muito interessantes.

6. “Todos” significa todos. Isso se aplica a todos nós — incluindo a mim e à equipe executiva.

POC no AWS Bedrock – Preços

✅ POC com AWS Bedrock [Parte 2]

Caso você tenha perdido, a parte um com a performance dos modelos está aqui: https://lnkd.in/dKnTEwTK

Rápida (re)contextualização: conduzi um projeto de classificação de notícias em um veículo de imprensa. Estas notícias foram (re)classificadas de acordo com novas categorias criadas pela empresa. O objetivo era verificar a performance de leitura e conversão por categoria, criando assim, insumo analítico para as equipes editoriais.

Neste post irei falar um pouco sobre a Arquitetura e o Preço da solução. Então vamos direto aos fatos:

– Quem classifica cada notícia/documento é o modelo LLM escolhido dentro da plataforma AWS Bedrock. Testamos a performance de diversos modelos em nosso projeto (resultados no post anterior)

– É preciso classificar o documento e salvar o output de cada classificação. Isso foi feito utilizando-se o AWS Bedrock Flow

– É preciso orquestrar a chamada do Bedrock Flow para cada documento/notícia escolhidos para entrarem no projeto. Para isto foi utilizado uma combinação de AWS Step Functions e AWS Lambda, que itera entre todos os conteúdos salvos previamente no S3, chamando o Bedrock Flow para cada documento individualmente

– Para cada documento classificado, foi salvo um arquivo csv com o resultado no S3. Foi criado um AWS Glue Crawler que criou o Data Catalog dos resultados que depois foram disponibilizados para a equipe de Analytics através do AWS Athena

E quanto custa tudo isso?

Bom, cada ferramenta possui uma maneira de cobrar, então vamos lá:

– Cada modelo de LLM possui um preço único com uma cobrança padrão por mil tokens de entrada. Cada documento nosso possui, em médio, dois mil tokens. Escolhemos o Claude Sonnet 3.7 que cobra cerca de R$0,02 por mil tokens de entrada, portanto em nosso caso o custo foi de R$0,04 por documento classificado

– O Bedrock Flow cobra por transições dentro do workflow. São cerca de R$0,20 por 1.000 transições. Cada documento usou apenas 5 transições.

– Em relação ao AWS Lambda, ficamos dentro do free tier, que é bem generoso de um milhão de execuções, mas caso tivéssemos passado, ele custa cerca de R$1,12 por um milhão de execuções, bem barato

– Por fim, o Step Functions possui um free tier de 4 mil transições de estado. Cada documento usou apenas 2 transições, então ficou dentro do free tier também, mas caso fossemos cobrados, seria cerca de R$0,15 por mil transições de estado no workflow

Portanto, em termos de ferramental, gastamos cerca de R$45 para processar cerca de mil documentos (mais barato do que muito PF por aí).

Também processamos tudo em cerca de 1 hora, pois adicionamos paralelismo no Step Functions. A título de comparação, um humano levaria cerca de 17 horas para realizar a mesma função. Ou seja, cerca de 2 dias úteis.

Acurácia de LLMs

📊 Em um projeto recente, tive a oportunidade de testar diversos LLMs para um case no setor de Marketing de uma empresa na área de Notícias e Geração de Conteúdo.

Irei explorar o case em mais detalhes futuramente, mas apenas para contextualizar, estávamos classificando cerca de 2.000 notícias criadas nos últimos 24 meses de acordo com um novo sistema de classificação de conteúdo proposto pela empresa.

Utilizamos o AWS Bedrock para esta tarefa, o que nos permitiu comparar diversos modelos em cima de um mesmo pipeline.

Para além da performance dos modelos, outras questões como revisão do sistema de classificação, comparação com concorrentes, custo e etc também foram levantadas e serão abordadas posteriormente.

Agora quero apenas trazer para vocês o desempenho de cada modelo em nosso teste, com a acurácia baseada em um dataset de treino já rotulado.

Para termos um benchmark, comparamos a performance do modelo com a de um time de especialistas da empresa que também realizou uma classificação do dataset de treino, sem saber a resposta correta.

AWS Bedrock

🧑‍🏭 Estou usando o AWS Bedrock e estou gostando muito!

Para quem já está trabalhando com IA (a.k.a. Machine Learning, Estatística, etc) há alguns anos, é incrível ver a evolução das ferramentas e de como isso afeta a produtividade, a prototipagem e a entrega de soluções.

Tenho trabalhado nos últimos meses com o AWS Bedrock e a plataforma não para de me supreender. Eis alguns motivos:

– Existe um grande catálogo de modelos LLMs disponíveis e já plugados à plataforma

– Existem ferramentas de sandbox para você testar e comparar modelos rapidamente, sem precisar de grandes configurações

– Existem configurações mais avançadas, quando você precisa extrair o máximo de um modelo

– Existe controle e versionamento de prompt, para você testar a performance de diversos prompts em cima dos mesmos dados

– É possível construir Flows com múltiplas chamadas de prompt, realizando tarefas complexas em um ambiente drag-and-drop

– É possível interagir com estes Flows através de chamadas da API do Bedrock, tornando o acesso possível a partir de qualquer software, integrando assim o poder das múltiplas LLMs ao seu produto

Futuro do Trabalho

💻 O avanço da Inteligência Artificial faz as pessoas se questionarem: “o que acontecerá com meu emprego?”

Como este é um sentimento bastante comum, diversas pesquisas sobre o assunto foram realizdas.

Uma delas é o relatório “Future of Jobs” do World Economic Forum. Os principais impactos previstos são:

Criação e Eliminação de Empregos:
• Até 2030, prevê-se a criação de cerca de 170 milhões de novos empregos, representando 14% do total de empregos atuais.
• Ao mesmo tempo, estima-se a eliminação de aproximadamente 92 milhões de empregos (8% do total), resultando em um crescimento líquido de 78 milhões de postos de trabalho (7% de aumento).

Dinâmica dos Papéis Profissionais:
• Papéis impulsionados por tecnologias emergentes — como especialistas em Big Data, FinTech, AI e desenvolvedores de software — estão entre os que mais crescem.
• Empregos relacionados à transição verde, como engenheiros ambientais e especialistas em energias renováveis, também apresentam forte crescimento.
• Em contrapartida, funções administrativas (por exemplo, caixas, atendentes e operadores de entrada de dados) estão entre os que mais declinam, principalmente devido à automação e à digitalização dos processos.

Impactos Diferenciados por Setor e Região:
• O crescimento ou declínio dos empregos varia conforme o setor: setores fundamentais como agricultura, construção e transporte podem registrar aumentos expressivos em volume absoluto.
• Além disso, as transformações são moduladas por características regionais e econômicas, refletindo as diferentes realidades demográficas e tecnológicas de cada região.

7 temas mais discutidos no SXSW 2025

Os 7 temas mais abordados e citados no SXSW 2025 foram:

– Inteligência Artificial (IA): Discussões sobre a integração da IA em diversas áreas, incluindo a apresentação do conceito de “Inteligência Viva” por Amy Webb, que combina IA, biotecnologia e sensores avançados

– Futurismo e 2050: A trilha 2050 explorou tópicos como computação quântica e exploração espacial, visando uma visão geral das próximas décadas da humanidade

– Clima e Sustentabilidade: Tecnologias para cidades inteligentes e sustentáveis foram destacadas, incluindo o uso da IA para planejamento urbano eficiente

– Creator Economy: Análises sobre o futuro das redes sociais e seu impacto na economia criativa foram frequentes

– Longevidade e Biotecnologia: Avanços na biotecnologia para melhorar a qualidade de vida e aumentar a longevidade foram amplamente discutidos

– Saúde Mental e Conexão Humana: Temas como saúde mental e a luta contra a solidão no mundo digital

– Futuro do Trabalho: Debates sobre como as empresas devem se adaptar às mudanças tecnológicas e sociais no ambiente de trabalho

Letramento de Dados

🎲 As ferramentas de GenAI têm um papel fundamental na democratização do letramento de dados, tornando o acesso e a compreensão dos dados mais simples e acessíveis a um público amplo, mesmo para aqueles sem um profundo conhecimento técnico e é aí que está o pulo do gato:

– Interação em Linguagem Natural
– Visualizações Automatizadas
– Redução das Barreiras Técnicas
– Aprendizado e Educação Contínuos
– Agilidade na Tomada de Decisão

Essas características potencializam o letramento de dados nas empresas ao democratizar o acesso à análise e interpretação dos dados, permitindo que usuários de diferentes níveis técnicos explorem informações relevantes por meio de interações em linguagem natural, visualizações intuitivas e insights automatizados, o que contribui para decisões mais informadas e uma cultura data-driven.

Claude 3.7 Sonnet: O Futuro da Inteligência Híbrida em 7 Pontos:

✅ Tipos Disponíveis: O Claude 3.7 Sonnet oferece modos de pensamento padrão e estendido, aumentando sua versatilidade para diferentes tarefas.

✅ Comparação com o Claude 3.5: O Claude 3.7 Sonnet supera o Claude 3.5 em raciocínio, codificação e capacidade de saída, com a adição de um modo de pensamento estendido.

✅ Métricas de Desempenho: O Claude 3.7 Sonnet alcança altas pontuações em benchmarks como GPQA Diamond (84,8%), AIME 2024 (80,0%) e MATH 500 (96,2%).

✅ Comparação com o GPT-4.5: Em geral, supera o GPT-4.5 em vários benchmarks.

✅ Comparação com Modelos da OpenAI: Supera o o1 da OpenAI em raciocínio de nível universitário, mas é igualado pelo o3-mini na resolução de problemas matemáticos.

✅ Comparação com o Grok 3 Beta: Está ligeiramente atrás do Grok 3 Beta em raciocínio de nível universitário, mas significativamente atrás em competições de matemática do ensino médio.

✅ Recursos Principais: Oferece raciocínio híbrido, modo de pensamento estendido e suporte a múltiplos idiomas, tornando-o versátil para codificação, resolução de problemas e geração de conteúdo.

Goku vs Sora

💡 O que é o “Goku”?

O Goku, cujo nome oficial é OmniHuman-1, é um novo modelo multimodal de IA da ByteDance baseado na arquitetura “Rectified Transformer Flow” de aprendizado de máquina profundo, utilizada na maioria dos modelos de difusão modernos para gerar imagens a partir de prompts multimodais.

A maior vantagem dessa arquitetura em relação a transformadores anteriores é que, além de combinar geração integrada de vídeos e imagens, ela possibilita um aprendizado intermodal nos processos de treinamento.

A inovação abre margem para criação de conteúdos audiovisuais extremamente realistas totalmente por IA. Conforme os dados de benchmark divulgados na página do modelo no GitHub, o Goku-T2V tem uma média de desempenho superior a vários outros modelos similares, inclusive o Sora, da OpenAI.

O benchmark está na imagem do post. Link para o Github do projeto.

Soberania Digital na Era da IA

📢 Você já ouviu falar em Soberania Digital?

🌎 Este conceito tem sido utilizado para explicar os altos investimentos dos países em Inteligência Artificial. Dado o poder da IA em disruptar todos os mercados, com consequências ainda não exatamente claras sobre os empregos, a renda e a sociedade no longo prazo, virou uma Questão de Estado possuir autonomia nos diversos aspectos tecnólogicos que envolvem este tema.

📊 Dados do Plano Brasileiro de Inteligência Artificial (PBIA) dizem que os EUA fizeram R$63 Bi de investimentos públicos em IA no período de 2021-2024, com investimentos privados de mais de R$380 Bi. No mesmo período, a China teve R$360 Bi de invetimentos públicos, com mais de R$39 Bi sendo privado.

💵 Só neste ano já tivemos notícias do projeto Stargate do Governo dos EUA em conjunto com Oracle, OpenAI e Softbank (US$500 Bi, faseados em múltiplos anos) e o InvestAI da União Europeia (€200 Bi). No Brasil, o PBIA prevê R$23 Bi no período 2024-2028.

A Era da Implementação da IA já começou, aqueles que investirem com maior eficácia e eficiência irão colher os frutos primeiro. A Máquina de Dados está aqui para te auxiliar nesta jornada de planejamento e execução.