

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Konfigurasikan pengaturan sumber
<a name="configure-source"></a>

Anda dapat mengonfigurasi pengaturan sumber berdasarkan sumber yang Anda pilih untuk mengirim informasi ke aliran Firehose dari konsol. Anda dapat mengonfigurasi pengaturan sumber untuk Amazon MSK dan Amazon Kinesis Data Streams sebagai sumbernya. Tidak ada pengaturan sumber yang tersedia untuk Direct PUT sebagai sumbernya.

# Konfigurasikan pengaturan sumber untuk Amazon MSK
<a name="writing-with-msk"></a>

Ketika Anda memilih Amazon MSK untuk mengirim informasi ke aliran Firehose, Anda dapat memilih antara kluster MSK yang disediakan dan MSK-Serverless. Anda kemudian dapat menggunakan Firehose untuk membaca data dengan mudah dari kluster dan topik MSK Amazon tertentu dan memuatnya ke tujuan S3 yang ditentukan.

Di bagian **Pengaturan sumber** halaman, berikan nilai untuk bidang berikut.

****Konektivitas kluster MSK Amazon****  
Pilih salah satu **broker bootstrap pribadi** (disarankan) atau opsi **pialang bootstrap publik** berdasarkan konfigurasi cluster Anda. Broker Bootstrap adalah apa yang digunakan klien Apache Kafka sebagai titik awal untuk terhubung ke cluster. Broker bootstrap publik ditujukan untuk akses publik dari luar AWS, sedangkan broker bootstrap swasta dimaksudkan untuk akses dari dalam AWS. Untuk informasi selengkapnya tentang Amazon MSK, lihat [Amazon Managed Streaming for Apache](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html) Kafka.   
Untuk terhubung ke cluster MSK Amazon yang disediakan atau tanpa server melalui broker bootstrap pribadi, cluster harus memenuhi semua persyaratan berikut.  
+ Klaster harus aktif.
+ Cluster harus memiliki IAM sebagai salah satu metode kontrol aksesnya.
+ Konektivitas pribadi multi-VPC harus diaktifkan untuk metode kontrol akses IAM.
+ Anda harus menambahkan ke klaster ini kebijakan berbasis sumber daya yang memberikan izin kepada kepala layanan Firehose untuk menjalankan operasi Amazon MSK API. `CreateVpcConnection`
Untuk terhubung ke cluster MSK Amazon yang disediakan melalui broker bootstrap publik, cluster harus memenuhi semua persyaratan berikut.  
+ Klaster harus aktif.
+ Cluster harus memiliki IAM sebagai salah satu metode kontrol aksesnya.
+ Cluster harus dapat diakses publik.

****Akun klaster MSK****  
Anda dapat memilih akun tempat klaster MSK Amazon berada. Ini bisa menjadi salah satu dari berikut ini.  
+ **Akun saat ini** — Memungkinkan Anda untuk menelan data dari kluster MSK di akun saat ini AWS . Untuk ini, Anda harus menentukan ARN cluster MSK Amazon dari mana aliran Firehose Anda akan membaca data.
+ **Cross-account** — Memungkinkan Anda untuk menelan data dari klaster MSK di akun lain. AWS Untuk informasi selengkapnya, lihat [Pengiriman lintas akun dari Amazon MSK](controlling-access.md#cross-account-delivery-msk).

****Topik****  
Tentukan topik Apache Kafka dari mana Anda ingin aliran Firehose Anda untuk menelan data. Anda tidak dapat memperbarui topik ini setelah pembuatan aliran Firehose selesai.  
Firehose secara otomatis mendekompresi pesan Apache Kafka.

# Konfigurasikan setelan sumber untuk Amazon Kinesis Data Streams
<a name="writing-with-kinesis-streams"></a>

Konfigurasikan setelan sumber untuk Amazon Kinesis Data Streams untuk mengirim informasi ke aliran Firehose sebagai berikut.

**penting**  
Jika Anda menggunakan Kinesis Producer Library (KPL) untuk menulis data ke aliran data Kinesis, Anda dapat menggunakan agregasi untuk menggabungkan catatan yang Anda tulis ke aliran data Kinesis tersebut. Jika Anda kemudian menggunakan aliran data tersebut sebagai sumber untuk aliran Firehose Anda, Amazon Data Firehose menghapus agregasi catatan sebelum mengirimkannya ke tujuan. Jika Anda mengonfigurasi aliran Firehose untuk mengubah data, Amazon Data Firehose melakukan de-agregasi catatan sebelum mengirimkannya. AWS Lambda Untuk informasi selengkapnya, lihat [Mengembangkan Produsen Amazon Kinesis Data Streams Menggunakan Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) dan [Agregasi](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

Di bawah **pengaturan Sumber**, pilih aliran yang ada di daftar **aliran data Kinesis**, atau masukkan ARN aliran data dalam format. `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]`

Jika Anda tidak memiliki aliran data yang ada, pilih **Buat** untuk membuat yang baru dari konsol Amazon Kinesis. Anda mungkin memerlukan peran IAM yang memiliki izin yang diperlukan pada aliran Kinesis. Untuk informasi selengkapnya, lihat [Berikan akses Firehose ke tujuan Amazon S3](controlling-access.md#using-iam-s3). Setelah Anda membuat aliran baru, pilih ikon penyegaran untuk memperbarui daftar **aliran Kinesis**. Jika Anda memiliki sejumlah besar aliran, filter daftar menggunakan **Filter berdasarkan nama**. 

**catatan**  
Saat Anda mengonfigurasi aliran data Kinesis sebagai sumber aliran Firehose, Firehose dan operasi Amazon Data akan dinonaktifkan. `PutRecord` `PutRecordBatch` Untuk menambahkan data ke aliran Firehose Anda dalam kasus ini, gunakan Kinesis Data Streams dan operasi. `PutRecord` `PutRecords`

Amazon Data Firehose mulai membaca data dari `LATEST` posisi aliran Kinesis Anda. Untuk informasi selengkapnya tentang posisi Kinesis Data Streams, lihat. [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html)

 Amazon Data Firehose memanggil operasi Kinesis Data [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html)Streams sekali per detik untuk setiap pecahan. Namun, ketika pencadangan penuh diaktifkan, Firehose memanggil operasi Kinesis Data `GetRecords` Streams dua kali per detik untuk setiap pecahan, satu untuk tujuan pengiriman utama dan satu lagi untuk pencadangan penuh.

Lebih dari satu aliran Firehose dapat membaca dari aliran Kinesis yang sama. Aplikasi Kinesis lainnya (konsumen) juga dapat membaca dari aliran yang sama. Setiap panggilan dari aliran Firehose atau aplikasi konsumen lainnya dihitung terhadap batas pelambatan keseluruhan untuk pecahan. Untuk menghindari throttling, rencanakan aplikasi Anda dengan hati-hati. Untuk informasi selengkapnya tentang batas Kinesis Data Streams, lihat [Batas Amazon Kinesis Streams](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Lanjutkan ke langkah berikutnya untuk mengonfigurasi transformasi rekaman dan konversi format.