Home

A Cor nos Dados

🎨 Qual a cor das pessoas que trabalham com dados?

📊 Segundo a pesquisa State of Data temos os resultados abaixo:
– Brancos: 66,2%
– Pardos: 21,3%
– Pretos: 6,1%
– Amarelos: 3,1%
– Indígenas: 0,3%

🌎 Agora vamos comparar esses dados com o da população geral segundo o Censo IBGE de 2022 (dentro de colchetes):
– Brancos: 66,2% [43,5%]
– Pardos: 21,3% [45,3%]
– Pretos: 6,1% [10,2%]
– Amarelos: 3,1% [0,4%]
– Indígenas: 0,3% [0,6%]

💻 Análise das informações:
– Brancos possuem uma super-representação
– Amarelos possuem uma super-representação bastante acima do esperado
– Pardos, pretos e indígenas são sub-representados

🧠 Insights:
– A área de dados no Brasil tem um perfil muito mais branco do que a população geral, indicando desigualdades de acesso e permanência.

– Pessoas pardas e pretas estão em menor número na área, o que pode refletir barreiras estruturais como acesso à educação e oportunidades.

– Pessoas amarelas têm uma participação bem acima da média populacional, o que pode estar relacionado a fatores culturais e econômicos.

– Indígenas continuam sendo fortemente excluídos desse mercado.

Acredito que as políticas de DEI baseadas em Dados servem para tentar corrigir as distorções criadas pela sociedade de maneira mais ampla.

Falando sobre Lakehouses

📢 Você já ouviu falar em Data Lakehouses?
Um lakehouse é uma arquitetura de dados que une os pontos fortes dos data lakes e dos data warehouses. Essa abordagem permite armazenar dados em sua forma bruta (como nos data lakes) e, ao mesmo tempo, oferecer as garantias de consistência, governança e desempenho necessárias para análises (como nos data warehouses).

✅ Principais Características:
Armazenamento Unificado
Desempenho Analítico
Schema Enforcement e Evolução
Custo-Benefício
Flexibilidade
Future Proof

🏁 Em resumo, o lakehouse é uma solução moderna que busca eliminar a necessidade de manter repositórios separados para dados brutos e dados processados, simplificando a arquitetura e melhorando a eficiência na ingestão, processamento e análise dos dados.

Google Astra

⚡ O projeto Astra do Google Deepmind (a divisão de IA do Google), é a maneira como acredito que a IA fará uma diferença real na vida das pessoas (no CPF mesmo, não no mundo corporativo, que terá muitos outros impactos). A interação de um agente que, através de áudio e vídeo, consegue interagir com o ambiente é uma maneira muito natural e muito útil para o dia-a-dia.

🌎 O Astra foi anunciado no Google I/O de 2024 e agora está no modo de testes, infelizmente apenas para usuários Android de EUA, Canadá e Reino Unido.

📰 Na reportagem abaixo do MIT Tech Review, vocês podem acompanhar mais detalhes de como o Astra funciona:

https://mittechreview.com.br/google-projeto-astra-ia/

Orquestração de LLMs

📢 Já ouviu falar em LangChain?

🧠 O LangChain é uma estrutura que facilita a orquestração de chamadas a diferentes modelos de linguagem (LLMs), permitindo que você integre e gerencie múltiplos LLMs de forma eficiente. Ele oferece várias funcionalidades que ajudam nesse processo:

– Abstração de Modelos: O LangChain fornece uma camada de abstração que permite que você trabalhe com diferentes LLMs (como GPT-3, GPT-4, Claude, etc.) de maneira uniforme. Isso significa que você pode trocar de modelo sem precisar reescrever grande parte do código.

– Encadeamento de Chamadas: Você pode criar cadeias (chains) de chamadas a diferentes LLMs, onde a saída de um modelo pode ser usada como entrada para outro. Isso é útil para tarefas complexas que requerem múltiplos passos de processamento.

– Gerenciamento de Contexto: O LangChain ajuda a manter o contexto entre diferentes chamadas a LLMs, o que é crucial para tarefas que envolvem conversas ou processamento de texto contínuo.

– Integração com Ferramentas Externas: Além de LLMs, o LangChain permite a integração com outras ferramentas e APIs, como bancos de dados, APIs de busca, e sistemas de armazenamento, o que amplia as possibilidades de uso.

– Modularidade: A estrutura é altamente modular, permitindo que você crie pipelines personalizados que combinam diferentes LLMs e ferramentas conforme necessário.

– Prompt Management: O LangChain facilita a gestão de prompts, permitindo que você crie, reutilize e otimize prompts para diferentes LLMs.

– Memória: Ele oferece suporte a diferentes tipos de memória, como memória de curto prazo e memória de longo prazo, para manter o contexto entre interações.

A revolução da IA nos Marketplaces

📈 Ontem, o Fabricio Bloisi publicou um relatório muitíssimo interessante sobre a revolução da IA nas plataformas de Ecommerce. O relatório é profundo e possui várias análises muito interessantes.

💻 Escolhi salientar aqui, na análise de hoje, o slide que mostra o impacto dos marketplaces em cada Setor, separando o quanto é transacionado de maneira digital e o quanto ainda é feito de maneira offline.

⛓️ Tecnologias como IA e Blockchain podem ajudar a digitalizar transações que ainda são feitas de maneira offline nesses Setores.

Alibaba Qwen 2.5 Max

📢 Já ouviu falar na Arquitetura MoE? A Mixture Of Experts (MoE) é uma arquitetura utilizada em GenAI para criar modelos que, de maneira simplificada, são um “conjunto de modelos especialistas” e isto possibilita a diminuição na complexidade de treinamento do modelo e também sua escalabilidade operacional.

🧑‍💼 Uma maneira didática de separar um modelo MoE (ex.: Alibaba Qwen 2.5 Max, DeepSeek V3) de um modelo Denso (OpenAI 4o, o1) é a seguinte: os modelos Densos são como uma pessoa muito inteligente que sabe sobre muitos assuntos, já um MoE é como um time de especialistas onde cada um sabe apenas sua parte.

⚙️ Do ponto de vista operacional é mais fácil treinar e executar um MoE pois você pode treinar, adicionar ou executar partes específicas do modelo, sem precisar ativar o modelo como um todo e daí vem o grande ganho de escala em comparação aos modelos Densos. Do ponto de vista prático, estes modelos tem conseguidos resultados extraordinários contra seus concorrentes. Veja na imagem a comparação entre eles

DeepSeek V3

“Tony Stark conseguiu construir isso em uma caverna! Com uma caixa de sucata!”
-Citação do filme “Homem de Ferro”

🤣Trazendo uma perspectiva humorística pro assunto da DeepSeek

Caso você tenha estado em uma caverna (sem o Tony Stark) nos últimos dias, talvez você tenha perdido este assunto, então aqui vai um resumo:

– A empresa chinesa DeepSeek AI lançou um modelo de LLM que rivaliza com e supera os principais modelos do mercado, dentre eles o OpenAI o1

– O modelo foi liberado de maneira open source, quem quiser pode usar gratuitamente

– O custo de treinamento do modelo foi (segundo afirmação da própria empresa) de apenas US$ 6MM (contra US$ 600MM da OpenAI)

– Um milhão de tokens na DeepSeek custa US$ 4 (contra US$ 100 na OpenAI)

– Tanta eficiência foi conseguida por um modelo mais eficiente e um melhor tratamento de dados

– Essa eficiência foi buscada pois a China está sofrendo restrições impostas pelos EUA em relação aos tipos de placas Nvidia que podem ser exportadas pra lá (basicamente, apenas os modelos mais antigos)

Existe uma frase que diz: “life finds a way”. Pelo visto, o mesmo acontece com a criatividade humana quando (ou principalmente quando) existem restrições impostas

Em uma referência mais pop/geek mas tão filosófica quanto:
“Tony Stark conseguiu construir isso em uma caverna! Com uma caixa de sucata!”

Fórum Econômico Mundial

🌎 Na semana passada ocorreu o Fórum Econômico Mundial em Davos, na Suíça. Os temas vinculados à tecnologia foram:

💡 Criptoativos: a nova política americana de fortalecer o uso de criptomoedas deve reforçar o uso desse tipo de ativo, levando diversos stakeholders a reforçarem suas posições

🤖 IA também foi um hot topic. No aspecto tecnológico, os Agentes de IA foram o assunto mais comentado, reforçando a tese de que a IA está cada vez mais madura e se transformando em soluções que geram valor para as empresas. Do ponto de vista político, o embate entre EUA e China foi destacado, com dúvidas sobre como a China prosseguirá em sua evolução, mesmo com as restrições norte-americanas (não contavam com o DeepSeek, não é mesmo rs?)

Como está o uso de Criptoativos e Agentes de IA na sua empresa?

Perplexity Predictions 2025

🧭 E saiu o report de predições de IA para 2025 da Perplexity! Para quem não conhece, a Perplexity é uma mistura de Google (pesquisa online da internet) com o ChatGPT

📱 O Perplexity Predictions for AI 2025 está repleto de boas informações e, o que mais me chamou a atenção, e informações pé no chão, ou seja, sem aquela viagem hypada que geralmente rola nesses relatórios. Os principais pontos levantados são:

☑️ Integração da IA em uma gama mais ampla de indústrias além dos setores tradicionais de tecnologia.

☑️ Automação de processos empresariais por meio de IA e robótica, otimizando operações em diversos setores.

☑️ Implementação de sistemas de busca empresarial baseados em IA para melhorar o acesso ao conhecimento dentro das organizações.

☑️ Transformação da experiência do cliente (CX) por meio de personalização orientada por IA e análises preditivas.

☑️ Avanços habilitados por IA nas áreas de saúde, finanças e manufatura, com foco na melhoria da eficiência e dos processos de tomada de decisão.

🧑‍🏭 Explorando um pouco mais a fundo o assunto “Agentes de IA”, o relatório diz que:

☑️ Agentes de IA gerenciando aspectos da vida digital dos usuários, como agendamento, gerenciamento de e-mails e recuperação de informações.

☑️ Maior autonomia nos processos de tomada de decisão, com agentes capazes de executar tarefas com base em instruções de alto nível.

☑️ Integração de agentes de IA em ambientes corporativos para otimizar fluxos de trabalho e aumentar a produtividade.

☑️ Capacidades aprimoradas de processamento de linguagem natural, permitindo interações humano-IA mais intuitivas.

☑️ Surgimento de assistentes pessoais baseados em IA capazes de lidar com tarefas complexas e de múltiplas etapas em várias plataformas e aplicativos.

💰 Adicionando meus dois centavos de contribuição: eu gostaria de ver mais desenvolvimentos em interface de voz, ajudando o processamento de tarefas a ser mais natural e interativo

NRF 2025

💡 O que rolou na NRF25? A National Retail Federation é a maior feira sobre inovação no setor de varejo e é o lugar onde as principais tendências para o ano são expostas.

🤖 O evento é enorme e com milhares de expositores e palestras. Abaixo seguem as principais tendências para este e os próximos anos:

✅ GenAI tem ajudado cada vez mais a elevar o nível de produtividade em atendimento online, retail media, digital signage e previsões para supply chain

✅ Modelos de negócios circulares e conscientes de seus impactos ambientais serão cada vez mais comuns em um mundo que já entrou na fase de Crise Climática

✅ Ferramentas digitais melhorando a experiência de compra nas lojas físicas: carrinhos inteligentes podem gerar dados sobre fluxo dos consumidores nas lojas, tecnologias de Just Walk Out (sair sem precisar passar no caixa) e similares evitam filas e melhoram a satisfação do cliente, ajudando a posicionar a loja física como um “Terceiro Lugar” (o primeiro é a casa, o segundo é o trabalho, o conceito de terceiro é de ser uma “casa fora de casa”)

✅ Slow Retail: foco na curadoria dos produtos para oferecer uma experiência única e de díficil repetição por competidores

🏁 O foco na experiência veio para ditar que a loja física não vai morrer. O cliente quer (e muitas vezes precisa) deste terceiro lugar para poder resolver o seu dia-a-dia corrido e essa experiência será tanto melhor quanto for a análise de dados de comportamento, compras e jornada do cliente na loja.