Ir para o conteúdo principal
LakeFlow Connect

Ingestão eficiente de dados em sua lakehouse

Dê o primeiro passo para desbloquear a inovação com inteligência de dados.
Lakeflow Connect
Benefícios

Desbloqueie valor dos seus dados em apenas alguns passos fáceis

Conectores de dados integrados estão disponíveis para aplicativos empresariais populares, fontes de arquivos e bancos de dados.

Flexível e fácil

Conectores totalmente gerenciados fornecem uma interface de usuário simples e API para uma configuração fácil e democratizam o acesso aos dados. Os recursos automatizados também ajudam a simplificar a manutenção do pipeline com sobrecarga mínima.

Conectores integrados

A ingestão de dados está totalmente integrada à Plataforma de Inteligência de Dados. Crie pipelines de ingestão com governança do Unity Catalog, observabilidade do Lakehouse Monitoring e orquestração perfeita com fluxos de trabalho para análise, aprendizado de máquina e BI.

Ingestão eficiente

Aumente a eficiência e acelere o tempo para obter valor. Leituras e gravações incrementais otimizadas e transformação de dados ajudam a melhorar o desempenho e a confiabilidade de seus pipelines, reduzir gargalos e reduzir o impacto nos dados de origem para escalabilidade.

Recursos

Capacidades robustas de ingestão para fontes de dados populares

Trazer todos os seus dados para a Plataforma de Inteligência de Dados é o primeiro passo para extrair valor e ajudar a resolver os problemas de dados mais desafiadores da sua organização.

A interface de usuário sem código (UI) ou uma API simples capacita os profissionais de dados a se autoatenderem, economizando horas de programação.

Faça um tour pela interface do usuário do Lakeflow Connect
A screenshot of the Databricks UI and API interface, showcasing dashboard thumbnails and improved performance features.

Traga apenas novos dados ou atualizações de tabela, tornando a ingestão de dados rápida, escalável e operacionalmente eficiente.

Mais sobre leituras e gravações incrementais
Incremental Reads and Writes

Ingestão de dados em um ambiente 100% sem servidor que proporciona inicialização rápida e escalonamento automático de infraestrutura.

Saiba mais sobre conectores totalmente gerenciados
Fully Managed

A integração profunda com o Catálogo Unity do Databricks oferece capacidades robustas, incluindo linhagem e qualidade de dados.

Mais sobre governança unificada com Unity Catalog
Unified Governance

Ingestão de dados com Databricks

Conector do Salesforce

Conector de dados que suporta Salesforce Sales Cloud.

Ingerir dados do Salesforce

Conector do Microsoft SQL Server

Conector de dados que suporta Azure SQL Database e Amazon RDS para SQL Server.

Ingerir dados do SQL Server

Conector do Google Analytics

Conector de dados que suporta dados do Google Analytics 4 (GA4) em nível de evento, com todos os campos suportados.

Ingerir dados do Google Analytics

Conector do ServiceNow

Conector de dados que ingere dados do ServiceNow para uma variedade de casos de uso, incluindo análise e planejamento de recursos.

Ingerir dados do ServiceNow

Conector do Workday

Conector de dados que ingere Relatórios Workday para carregar diretamente no Databricks.

Ingerir dados do Workday

Conector do SharePoint

Conector de dados que suporta dados do SharePoint (não estruturados). Integrações fáceis com a Pesquisa Vetorial e outras ferramentas de IA.

Ingerir dados do SharePoint

Auto Loader

Ingerir incrementalmente e processar eficientemente novos arquivos de dados à medida que chegam em fontes de armazenamento em nuvem suportadas (S3, ADLS, GCS).

Ingerir dados com o Auto Loader

Fontes de Dados em Streaming

Ingestão de registros de fontes suportadas como Apache Kafka com uma infraestrutura sempre ativa e processamento de dados quase em tempo real.

Ingerir dados de fontes de streaming

Suporte nativo a SQL

Usuários de SQL podem usar o comando COPY INTO para carregar dados de maneira idempotente e incremental a partir de um local de arquivo para o Databricks SQL, Databricks Notebooks e Databricks Jobs.

Ingestão de dados usando COPY INTO

Upload Manual de Arquivo

Faça o upload de arquivos locais diretamente no Databricks para criar uma tabela Delta ou armazenar dados em volumes.

Faça upload de arquivos para o Databricks
Casos de uso

Resolvendo problemas de clientes em uma variedade de indústrias

Preços

O preço baseado no uso ajuda a controlar despesas

Pague apenas pelos produtos que usar por segundo.
Produtos relacionados

Descubra mais

Explore outras ofertas integradas e inteligentes na plataforma de inteligência de dados.

Jobs do Lakeflow

Capacite as equipes para automatizar e orquestrar melhor qualquer fluxo de trabalho de ETL, analítica e IA com observabilidade detalhada, alta confiabilidade e amplo suporte a tipos de tarefas.

Pipelines Declarativos do LakeFlow

Simplifique o ETL em lotes e transmissão com qualidade de dados automatizada, captura de dados de alterações (CDC), ingestão de dados, transformações e governança unificada.

Unity Catalog

Governe sem esforço todos os seus ativos de dados com a única solução de governança unificada e aberta do setor para dados e AI, integrada à Databricks Data Intelligence Platform.

Delta Lake

Unifique os dados em seu lakehouse, em todos os formatos e tipos, para todas as suas cargas de trabalho de analytics e AI.

Introdução

Perguntas frequentes sobre ingestão de dados

Pronto para se tornar uma 
empresa de dados + AI?

Dê os primeiros passos na transformação dos seus dados