스트리밍 데이터를 쉽게 캡처하고 변환하며 로드합니다. 클릭 몇 번으로 전송 스트림을 생성하고 대상을 선택하여 실시간 데이터 스트리밍을 시작합니다.
지속적인 관리 없이 자동으로 컴퓨팅, 메모리, 네트워크 리소스를 프로비저닝하고 크기를 조정합니다.
원시 스트리밍 데이터를 Apache Parquet와 같은 형식으로 변환하고, 자체 처리 파이프라인을 구축하지 않고도 스트리밍 데이터를 동적으로 분할합니다.
작동 방식
Amazon Data Firehose는 몇 초 안에 데이터 스트림을 확보 및 변환하고 데이터 레이크, 데이터 웨어하우스 및 분석 서비스로 전송할 수 있는 가장 쉬운 방법입니다. Amazon Data Firehose를 사용하려면 소스, 대상 및 필요한 변환이 포함된 스트림을 설정해야 합니다. Amazon Data Firehose는 스트림을 지속적으로 처리하고, 사용 가능한 데이터의 양에 따라 자동으로 조정되며, 몇 초 내에 스트림을 전송합니다.
소스
Amazon Managed Streaming for Kafka(MSK)의 주제, Kinesis Data Streams의 소스 또는 Firehose Direct PUT API를 사용하여 작성된 데이터 등 데이터 스트림의 소스를 선택합니다. Amazon Data Firehose는 20개 이상의 AWS 서비스와 통합됩니다. 따라서 Amazon CloudWatch Logs, AWS WAF 웹 ACL 로그, AWS Network Firewall 로그, Amazon SNS 또는 AWS IoT와 같은 소스의 스트림을 설정할 수 있습니다.
데이터 변환(선택 사항)
데이터 스트림을 Parquet 또는 ORC와 같은 형식으로 변환할지, 데이터를 압축 해제할지, 자체 AWS Lambda 함수를 사용하여 사용자 지정 데이터 변환을 수행할지, 속성을 기반으로 입력 레코드를 동적으로 분할하여 다른 위치로 전송할지 지정합니다.
대상
Amazon S3, Amazon OpenSearch Service, Amazon Redshift, Splunk, Snowflake 또는 사용자 지정 HTTP 엔드포인트 등 스트림의 대상을 선택합니다.
Amazon Data Firehose에 대한 자세한 내용은 Amazon Data Firehose 설명서를 참조하세요.
사용 사례
데이터 레이크 및 웨어하우스로 스트리밍
데이터를 Amazon S3로 스트리밍하고, 처리 파이프라인 구축 없이 데이터를 분석에 필요한 형식으로 변환합니다.
보안 강화
네트워크 보안을 실시간으로 모니터링하고, 잠재적 위협이 발생할 경우 지원되는 보안 정보 및 이벤트 관리(SIEM) 도구를 사용해 알림을 생성합니다.
기계 학습 스트리밍 애플리케이션 구축
기계 학습(ML) 모델을 통해 데이터 스트림을 보강하여, 스트림이 대상으로 이동할 때 데이터를 분석하고 추론 엔드포인트를 예측합니다.
시작하는 방법
개발자 안내서 검토
Amazon Data Firehose에 대해 자세히 알아보세요.
전문가와 연결
개념 증명 또는 평가를 위한 지원을 받으세요.
요금 살펴보기
4가지 유형의 온디맨드 사용 요금에 대해 알아보세요.