BITS 24.06.25: IA ganha ‘Mente’! Cibersegurança revela ameaças e defesas geniais; Chips 3D estão chegando!

BITS 24.06.2025
Compartilhe:

BITS Logo

BITS: o seu clipping diário, por Fábio Xavier

Inteligência Artificial

IA acelera medição de temperatura em condensados de Bose-Einstein

Fonte: ArXiv (Inteligência Artificial) | Índice de Inovação: ★★★★☆

Um novo método utiliza inteligência artificial (IA) para medir com precisão a temperatura e o potencial químico em gases de Bose ultrafrios. A técnica, baseada em redes neurais convolucionais, analisa imagens de densidade dos gases para estimar os parâmetros termodinâmicos em frações de segundo. O modelo demonstra capacidade de generalização para diferentes geometrias de armadilhas, inclusive condensados toroidais, com precisão na casa dos nanokelvins, mesmo sem treinamento prévio nessas configurações. Essa abordagem não-destrutiva supera as limitações das técnicas convencionais, agilizando experimentos e melhorando a precisão das medições em sistemas quânticos. A IA promete otimizar fluxos de trabalho experimentais e expandir a análise em tempo real de experimentos com gases quânticos.

Ler artigo original »

CIfly: Framework para Inferência Causal Gráfica em Tempo Linear

Fonte: ArXiv (Inteligência Artificial) | Índice de Inovação: ★★★★☆

O artigo apresenta o CIfly, um framework para algoritmos eficientes em inferência causal gráfica. O CIfly se baseia na ideia de que muitas tarefas de raciocínio causal podem ser reduzidas à acessibilidade em grafos de espaço de estados construídos durante a travessia. Ele formaliza um esquema de tabela de regras para especificar esses algoritmos, provando sua execução em tempo linear. O CIfly é proposto como alternativa mais eficiente à moralização e projeção latente, equivalentes à multiplicação de matrizes booleanas. Sua implementação em Rust de código aberto permite execução de alta performance acessível a partir de Python e R. O artigo demonstra a utilidade do CIfly reimplementando tarefas de inferência causal e desenvolvendo novos algoritmos para variáveis instrumentais, posicionando-o como base flexível e escalável para inferência causal gráfica.

Ler artigo original »

Aprendizado por Reforço sem Modelo: Quando é Suficiente para o Pensamento?

Fonte: ArXiv (Inteligência Artificial) | Índice de Inovação: ★★★★☆

Este artigo investiga quando o aprendizado por reforço sem modelo (RL) leva ao surgimento de ‘pensamento’ em modelos de linguagem. Os autores introduzem um modelo teórico, o ‘processo de decisão de Markov de pensamento’ (Thought MDP), para analisar como ações de ‘pensamento’, que não geram recompensas diretas, podem ser aprendidas. A pesquisa demonstra a importância da inicialização da política e mostra formalmente que as ações de ‘pensamento’ equivalem a uma etapa de melhoria da política antes da ação. O estudo analisa LLMs de código aberto e propõe condições suficientes para que o ‘pensamento’ seja aprendido além da geração de linguagem, sugerindo uma abordagem mais eficiente em dados em um domínio específico. Os resultados têm implicações significativas para o desenvolvimento de IA mais eficiente e capaz de raciocínio.

Ler artigo original »

Segurança Cibernética

IA Generativa: Mudanças Radicais na Segurança Cibernética

Fonte: SecPod Blog | Índice de Inovação: ★★★★☆ | Índice de Risco: ★★★★☆

A IA generativa revolucionou a segurança cibernética, automatizando tarefas para atacantes e defensores. Ataques de phishing com IA alcançaram taxas de sucesso de 54%, enquanto defensores usam IA para análise de vulnerabilidades e geração de relatórios. Apesar da aparente simetria, atacantes ganham velocidade e alcance, enquanto a correção manual ainda é um gargalo para os defensores. A adoção da IA melhora a velocidade e consistência, mas os benefícios dependem da aplicação. Ferramentas baseadas em LLMs priorizam incidentes, agrupam alertas e geram relatórios. Modelos de geração de código reduzem a dívida técnica, enquanto times de segurança ofensiva usam IA para simular ameaças avançadas. A IA também auxilia na conformidade regulatória, alinhando políticas com implementações técnicas. No entanto, a IA introduz novos vetores de ataque, como injeção de prompt e informações imprecisas. Riscos incluem vazamento de dados e ações não autorizadas. É crucial garantir a segurança das pipelines de LLMs com sanitização de entradas, ambientes isolados e monitoramento de comportamento. Soluções como o Saner Cloud visam reduzir a lacuna entre detecção e resolução, automatizando a correção de vulnerabilidades.

Ler artigo original »

Extração de Assinatura em Redes Neurais Profundas: Avanços e Ameaças

Fonte: ArXiv (Criptografia e Segurança) | Índice de Inovação: ★★★★☆ | Índice de Risco: ★★★★☆

Pesquisadores aprimoraram a técnica de extração de assinatura em redes neurais profundas, superando limitações de métodos anteriores. A nova abordagem resolve problemas como deficiência de rank e propagação de ruído em camadas mais profundas, permitindo a extração de redes muito maiores. Experimentos com redes baseadas em ReLU mostraram precisão acima de 95% na correspondência de pesos em oito camadas de uma rede treinada no dataset CIFAR-10, enquanto métodos anteriores mal conseguiam extrair as três primeiras. Isso representa um avanço significativo em ataques a arquiteturas de redes neurais complexas, levantando preocupações sobre segurança. A pesquisa destaca vulnerabilidades em modelos de IA, com implicações para a segurança de sistemas dependentes dessas tecnologias.

Ler artigo original »

Reactivando a Segurança em Modelos Visão-Linguagem com ‘Safety Reminder’

Fonte: ArXiv (Criptografia e Segurança) | Índice de Inovação: ★★★★☆ | Índice de Risco: ★★★☆☆

Pesquisadores identificaram um ‘atraso na segurança’ em modelos Visão-Linguagem (VLMs), onde inicialmente geram conteúdo prejudicial, mas depois se corrigem. Isso indica que a segurança inerente não está ausente, mas sua ativação é lenta. Para solucionar isso, foi criado o ‘Safety Reminder’, um método que utiliza prompts para reativar a segurança do modelo. O método injeta tokens durante a geração de texto, aumentando a conscientização de segurança somente quando conteúdo prejudicial é detectado, sem afetar conversas normais. Testes em benchmarks mostraram que o método reduz significativamente a geração de conteúdo nocivo mantendo a utilidade do modelo. Esta abordagem oferece uma solução prática para implantar VLMs mais seguros em aplicações reais. A inovação reside em detectar e corrigir um comportamento inesperado de segurança em VLMs, prevenindo a geração de conteúdo malicioso.

Ler artigo original »

Varonis Jitter-Trap: Nova técnica de detecção de beacons em tempo real

Fonte: CSO Online | Índice de Inovação: ★★★★☆ | Índice de Risco: ★★★☆☆

A Varonis lançou o Jitter-Trap, uma nova técnica que detecta beacons usados por cibercriminosos, explorando a aleatoriedade (jitter) que eles usam para evadir detecção. O Jitter-Trap analisa o tempo de requisições de rede, identificando padrões estatísticos incomuns em tráfego legítimo. Ele detecta atrasos aleatórios adicionados pelos atacantes para se camuflarem, usando testes estatísticos como Kolmogorov-Smirnov e qui-quadrado. A técnica também analisa a aleatoriedade em tamanhos de payload e URLs. A detecção de beacons é crucial, pois representa uma fase difícil de identificar em ataques, permitindo comunicação stealthy após a infecção inicial. O Jitter-Trap se destaca por sua alta precisão e por transformar a técnica de evasão do atacante em sinal de detecção.

Ler artigo original »

Ataque com Docker APIs e Tor rouba criptomoedas

Fonte: Dark Reading | Índice de Inovação: ★★★☆☆ | Índice de Risco: ★★★★☆

Ataques cibernéticos sofisticados usando APIs Docker e a rede Tor para anonimizar as ações foram relatados. Os invasores exploraram vulnerabilidades ainda não reveladas para roubar criptomoedas. Este tipo de ataque destaca a necessidade de segurança reforçada em infraestruturas de TI, especialmente em plataformas que utilizam Docker. O uso do Tor torna a investigação mais complexa, devido ao anonimato proporcionado pela rede. Não há informações sobre o valor roubado nem sobre as vítimas específicas. A falta de detalhes do ataque dificulta a avaliação completa do seu alcance e impacto.

Ler artigo original »

Tecnologia e Liderança Inovadora

IA e as Big Techs: Uma Análise da Disrupção em 2023

Fonte: Stratechery by Ben Thompson | Índice de Inovação: ★★★★☆

O artigo analisa o impacto da inteligência artificial (IA) nas cinco maiores empresas de tecnologia (Big Five): Apple, Google, Meta, Microsoft e Amazon. A Meta se destaca com investimentos maciços em IA após resultados decepcionantes com o Llama 4, enquanto o Google aposta em sua infraestrutura robusta e no Gemini. A Apple, por sua vez, busca parcerias estratégicas para integrar a IA aos seus dispositivos. A Microsoft se beneficia da parceria com a OpenAI, enquanto a Amazon busca integrar IA à AWS e ao comércio eletrônico. O autor discute os modelos de negócios, riscos e oportunidades da IA para cada empresa, considerando a inovação e a disrupção no setor.

Ler artigo original »

Chips 3D com GaN prometem eletrônicos mais rápidos e eficientes

Fonte: IT Forum (Liderança e Gestão) | Índice de Inovação: ★★★★☆

Pesquisadores do MIT desenvolveram uma técnica inovadora para integrar transistores de nitreto de gálio (GaN) em chips de silício, criando chips 3D híbridos. O processo utiliza minúsculos transistores de GaN, chamados dielets, que são posicionados com precisão nanométrica em chips de silício. Isso resulta em eletrônicos mais rápidos, compactos e com menor consumo de energia, com aplicações em smartphones (melhor qualidade de chamada, conexões mais rápidas e maior duração da bateria). A técnica também é promissora para a computação quântica. O método é de baixo custo e compatível com a indústria atual de semicondutores, usando ligações de cobre a baixas temperaturas, ao contrário de processos anteriores que utilizavam ouro. O avanço foi apresentado no IEEE RFIC Symposium e contou com apoio de órgãos governamentais dos EUA.

Ler artigo original »

IA como nova espécie: simbiosis com humanos, desafios e riscos

Fonte: IT Forum (Liderança e Gestão) | Índice de Inovação: ★★★☆☆

Neil Redding, CEO da Redding Futures, prevê a IA como uma ‘nova espécie’ em simbiose com a humanidade, passando por cinco fases até alcançar essa interação. Inicialmente, haverá interação via prompts, evoluindo para uma parceria ativa e, posteriormente, autonomia da IA. A simbiose final trará benefícios mútuos. Entretanto, o desenvolvimento da IA por empresas privadas, focadas no lucro, gera preocupações sobre o bem-estar coletivo, semelhante aos problemas causados pelas redes sociais. Redding defende a expansão de modelos de IA de código aberto, aumentando a transparência e o controle social, além da mudança no conceito de responsabilidade empresarial, priorizando o bem-estar humano e ambiental sobre o lucro imediato. A solução proposta envolve modelos menores, executáveis localmente, e uma maior pressão por responsabilidade social das empresas.

Ler artigo original »

Clipping automatizado com análise de IA.

Fábio Correa Xavier é um apaixonado por construir futuros inspiradores por meio da tecnologia e inovação.
Mestre em Ciência da Computação pela Universidade de São Paulo, com MBA em Gestão de Negócios pelo Ibmec/RJ, e Especialização Network Engineering pela Japan International Cooperation Agency (JICA).
Atualmente é CIO do Tribunal de Contas do Estado de São Paulo, Professor e Coordenador de graduação e pós-graduação, e colunista da MIT Technology Review Brasil e da IT Forum.
Possui as certificações CIPM e CDPO/BR (IAPP – International Association of Privacy Professionals), CC((ISC)²) e EXIN Privacy e Data Protection.
É autor de vários livros sobre tecnologia, inovação, privacidade, proteção de dados e LGPD, com destaque para o Best Seller “CIO 5.0”, semifinalista do Prêmio Jabuti 2024 e destaque da Revista Exame, e também de Mapa da Liderança.

Logo Fábio Xavier

What do you feel about this?