Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Aurora Postgre SQL menyediakan ekstensi untuk bekerja dengan layanan lain. AWS Ini adalah ekstensi opsional yang mendukung berbagai kasus penggunaan, seperti menggunakan Amazon S3 dengan klaster DB Anda untuk mengimpor atau mengekspor data.
Untuk mengimpor data dari bucket Amazon S3 ke cluster Babelfish DB, Anda menyiapkan ekstensi Aurora
aws_s3
Postgre. SQL Ekstensi ini juga memungkinkan Anda mengekspor data dari cluster SQL DB Aurora Postgre Anda ke bucket Amazon S3.AWS Lambda adalah layanan komputasi yang memungkinkan Anda menjalankan kode tanpa menyediakan atau mengelola server. Anda dapat menggunakan fungsi Lambda untuk melakukan hal-hal seperti memproses notifikasi peristiwa dari instans DB Anda. Untuk mempelajari lebih lanjut tentang Lambda, lihat Apa itu AWS Lambda? di Panduan Developer AWS Lambda . Untuk menjalankan fungsi Lambda dari cluster Babelfish DB Anda, Anda menyiapkan ekstensi Aurora Postgre.
aws_lambda
SQL
Untuk menyiapkan ekstensi ini untuk klaster Babelfish Anda, Anda harus terlebih dahulu memberikan izin kepada pengguna internal Babelfish untuk memuat ekstensi. Setelah memberikan izin, Anda kemudian dapat memuat ekstensi Aurora SQL Postgre.
Mengaktifkan ekstensi Aurora SQL Postgre di cluster Babelfish DB Anda
Sebelum Anda dapat memuat ekstensi aws_s3
atau aws_lambda
, Anda memberikan hak istimewa yang diperlukan untuk klaster DB Babelfish Anda.
Prosedur berikut menggunakan alat baris SQL perintah psql
Postgre untuk terhubung ke cluster DB. Untuk informasi selengkapnya, lihat Menggunakan psql untuk terhubung ke klaster DB. Anda juga bisa menggunakanpgAdmin. Untuk detailnya, lihat Menggunakan pgAdmin untuk terhubung ke klaster DB.
Prosedur ini memuat keduanya aws_s3
dan aws_lambda
, satu demi satu. Anda tidak perlu memuat keduanya jika hanya ingin menggunakan salah satu dari ekstensi ini. Ekstensi aws_commons
diperlukan oleh masing-masing, dan itu dimuat secara default seperti yang ditunjukkan pada output.
Untuk mengatur cluster DB Babelfish Anda dengan hak istimewa untuk ekstensi Aurora Postgre SQL
Hubungkan ke klaster DB Babelfish Anda. Gunakan nama untuk pengguna “master” (-U) yang Anda tentukan saat Anda membuat klaster DB Babelfish. Default (
postgres
) ditampilkan dalam contoh.Untuk Linux, macOS, atau Unix:
psql -h
your-Babelfish.cluster.444455556666-us-east-1.rds.amazonaws.com
\ -U postgres \ -d babelfish_db \ -p 5432Untuk Windows:
psql -h
your-Babelfish.cluster.444455556666-us-east-1.rds.amazonaws.com
^ -U postgres ^ -d babelfish_db ^ -p 5432Perintah merespons dengan prompt untuk memasukkan kata sandi untuk nama pengguna (-U).
Password:
Anda perlu memasukkan kata sandi untuk nama pengguna (-U) untuk klaster DB. Ketika Anda berhasil terhubung, Anda melihat output yang serupa dengan berikut ini.
psql (13.4) SSL connection (protocol: TLSv1.3, cipher: TLS_AES_256_GCM_SHA384, bits: 256, compression: off) Type "help" for help.
postgres=>
Berikan hak istimewa kepada pengguna Babelfish internal untuk membuat dan memuat ekstensi.
babelfish_db=>
GRANT rds_superuser TO master_dbo;
GRANT ROLE
Buat dan muat ekstensi
aws_s3
. Ekstensiaws_commons
diperlukan, dan diinstal secara otomatis ketikaaws_s3
diinstal.babelfish_db=>
create extension aws_s3 cascade;
NOTICE: installing required extension "aws_commons" CREATE EXTENSION
Buat dan muat ekstensi
aws_lambda
.babelfish_db=>
create extension aws_lambda cascade;
CREATE EXTENSION
babelfish_db=>
Menggunakan Babelfish dengan Amazon S3
Jika Anda belum memiliki bucket Amazon S3 untuk digunakan dengan klaster DB Babelfish Anda, Anda dapat membuatnya. Untuk bucket Amazon S3 yang ingin Anda gunakan, Anda menyediakan akses.
Sebelum mencoba mengimpor atau mengekspor data menggunakan bucket Amazon S3, selesaikan langkah-langkah satu kali berikut.
Cara menyiapkan akses instans DB Babelfish ke bucket Amazon S3
-
Buat bucket Amazon S3 untuk instans Babelfish Anda, jika diperlukan. Untuk melakukannya, ikuti petunjuk di Buat bucket di Panduan Pengguna Layanan Penyimpanan Sederhana Amazon.
Unggah file ke bucket Amazon S3. Untuk melakukannya, ikuti langkah-langkah di Tambahkan objek ke bucket di Panduan Pengguna Layanan Penyimpanan Sederhana Amazon.
-
Siapkan izin sesuai kebutuhan:
-
Untuk mengimpor data dari Amazon S3, klaster DB Babelfish memerlukan izin untuk mengakses bucket. Sebaiknya gunakan peran AWS Identity and Access Management (IAM) dan melampirkan IAM kebijakan ke peran tersebut untuk klaster Anda. Untuk melakukannya, ikuti langkah yang ada di Menggunakan IAM peran untuk mengakses bucket Amazon S3.
-
Untuk mengekspor data dari klaster DB Babelfish, klaster Anda harus diberikan akses ke bucket Amazon S3. Seperti halnya mengimpor, sebaiknya gunakan IAM peran dan kebijakan. Untuk melakukannya, ikuti langkah yang ada di Menyiapkan akses ke bucket Amazon S3.
-
Sekarang Anda dapat menggunakan Amazon S3 dengan ekstensi aws_s3
dengan klaster DB Babelfish Anda.
Untuk mengimpor data dari Amazon S3 ke Babelfish dan untuk mengekspor data Babelfish ke Amazon S3
Gunakan ekstensi
aws_s3
dengan klaster DB Babelfish Anda.Ketika Anda melakukannya, pastikan untuk mereferensikan tabel seperti yang ada dalam konteks SQL Postgre. Artinya, jika Anda ingin mengimpor ke dalam tabel Babelfish bernama
[database].[schema].[tableA]
, lihat tabel itu sepertidatabase_schema_tableA
dalam fungsiaws_s3
:Untuk contoh penggunaan fungsi
aws_s3
untuk mengimpor data, lihat .Untuk contoh penggunaan fungsi
aws_s3
untuk mengekspor data, lihat Mengekspor data kueri menggunakan fungsi aws_s3.query_export_to_s3.
Pastikan untuk mereferensikan tabel Babelfish menggunakan SQL penamaan Postgre saat menggunakan ekstensi dan
aws_s3
Amazon S3, seperti yang ditunjukkan pada tabel berikut.
Tabel Babelfish |
Meja Aurora Postgre SQL |
---|---|
|
|
Untuk mempelajari lebih lanjut tentang menggunakan Amazon S3 dengan Aurora SQL Postgre, lihat dan. Mengekspor data dari klaster DB Aurora PostgreSQL ke Amazon S3
Menggunakan Babelfish dengan AWS Lambda
Setelah ekstensi aws_lambda
dimuat di klaster DB Babelfish Anda tetapi sebelum Anda dapat menginvokasi fungsi Lambda, beri Lambda akses ke klaster DB Anda dengan mengikuti prosedur ini.
Untuk mengatur akses klaster DB Babelfish Anda agar berfungsi dengan Lambda
Prosedur ini menggunakan AWS CLI untuk membuat IAM kebijakan dan peran, dan mengaitkannya dengan cluster Babelfish DB.
Buat IAM kebijakan yang memungkinkan akses ke Lambda dari klaster DB Babelfish Anda.
aws iam create-policy --policy-name
rds-lambda-policy
--policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "AllowAccessToExampleFunction", "Effect": "Allow", "Action": "lambda:InvokeFunction", "Resource": "arn:aws:lambda:
" } ] }'aws-region
:444455556666:function:my-functionBuat IAM peran yang dapat diasumsikan oleh kebijakan saat runtime.
aws iam create-role --role-name
rds-lambda-role
--assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }'Lampirkan kebijakan pada peran tersebut.
aws iam attach-role-policy \ --policy-arn arn:aws:iam::
444455556666
:policy/rds-lambda-policy
\ --role-namerds-lambda-role
--regionaws-region
Melampirkan peran ke klaster DB Babelfish Anda
aws rds add-role-to-db-cluster \ --db-cluster-identifier
my-cluster-name
\ --feature-name Lambda \ --role-arn arn:aws:iam::444455556666:role/rds-lambda-role
\ --regionaws-region
Setelah Anda menyelesaikan tugas-tugas ini, Anda dapat menginvokasi fungsi Lambda Anda. Untuk informasi lebih lanjut dan contoh pengaturan AWS Lambda untuk Aurora Postgre SQL DB cluster dengan, lihat. AWS LambdaAWS Lambda
Cara menginvokasi fungsi Lambda dari klaster DB Babelfish Anda
AWS Lambda mendukung fungsi yang ditulis dalam Java, Node.js, Python, Ruby, dan bahasa lainnya. Jika fungsi menampilkan teks saat diinvokasi, Anda dapat memanggilnya dari klaster DB Babelfish Anda. Contoh berikut adalah fungsi python placeholder yang menampilkan salam.
lambda_function.py import json def lambda_handler(event, context): #TODO implement return { 'statusCode': 200, 'body': json.dumps('Hello from Lambda!')
Saat ini, Babelfish tidak mendukung. JSON Jika fungsi Anda kembaliJSON, Anda menggunakan pembungkus untuk menangani. JSON Misalnya, lambda_function.py
yang ditunjukkan sebelumnya disimpan di Lambda sebagai my-function
.
Connect ke cluster Babelfish DB Anda menggunakan
psql
klien (atau pgAdmin klien). Untuk informasi selengkapnya, lihat Menggunakan psql untuk terhubung ke klaster DB.Buat pembungkusnya. Contoh ini menggunakan bahasa prosedural Postgre SQL untuk,. SQL
PL/pgSQL
Untuk mempelajari lebih lanjut, lihat PL/PG SQL — Bahasa SQL Prosedural. create or replace function master_dbo.lambda_wrapper() returns text language plpgsql as $$ declare r_status_code integer; r_payload text; begin SELECT payload INTO r_payload FROM aws_lambda.invoke( aws_commons.create_lambda_function_arn('my-function', 'us-east-1') ,'{"body": "Hello from Postgres!"}'::json ); return r_payload ; end; $$;
Fungsi ini sekarang dapat dijalankan dari port Babelfish (1433) atau dari TDS port Postgre SQL (5433).
Untuk memanggil (memanggil) fungsi ini dari port SQL Postgre Anda:
SELECT * from aws_lambda.invoke(aws_commons.create_lambda_function_arn('my-function', 'us-east-1'), '{"body": "Hello from Postgres!"}'::json );
Output Anda akan serupa dengan yang berikut ini.
status_code | payload | executed_version | log_result -------------+-------------------------------------------------------+------------------+------------ 200 | {"statusCode": 200, "body": "\"Hello from Lambda!\""} | $LATEST | (1 row)
Untuk memanggil (memanggil) fungsi ini dari TDS port, sambungkan ke port menggunakan klien baris
sqlcmd
perintah SQL Server. Untuk detailnya, lihat Menggunakan klien SQL Server untuk terhubung ke klaster DB Anda. Saat terhubung, jalankan yang berikut ini:1>
select lambda_wrapper();
2>
go
Perintah tersebut menghasilkan output yang serupa dengan berikut ini:
{"statusCode": 200, "body": "\"Hello from Lambda!\""}
Untuk mempelajari lebih lanjut tentang menggunakan Lambda dengan Aurora Postgre, lihat. SQL Untuk informasi selengkapnya tentang bekerja dengan fungsi Lambda, lihat Memulai dengan Lambda di Panduan Developer AWS Lambda .
Menggunakan pg_stat_statements di Babelfish
Babelfish untuk Aurora SQL Postgre mendukung ekstensi dari 3.3.0. pg_stat_statements
Untuk mempelajari lebih lanjut, lihat pg_stat_statements
Untuk detail tentang versi ekstensi ini yang didukung oleh Aurora PostgreSQL, lihat Versi ekstensi.
Membuat ekstensi pg_stat_statements
Untuk mengaktifkan pg_stat_statements
, Anda harus mengaktifkan perhitungan pengidentifikasi Kueri. Hal ini dilakukan secara otomatis jika compute_query_id
diatur ke on
atau auto
di grup parameter. Nilai default untuk parameter compute_query_id
adalah auto
. Anda juga perlu membuat ekstensi ini untuk mengaktifkan fitur ini. Gunakan perintah berikut untuk menginstal ekstensi dari T- SQL endpoint:
1>
EXEC sp_execute_postgresql 'CREATE EXTENSION pg_stat_statements WITH SCHEMA sys';
Anda dapat mengakses statistik kueri menggunakan kueri berikut:
postgres=>
select * from pg_stat_statements;
catatan
Selama instalasi, jika Anda tidak memberikan nama skema untuk ekstensi, maka secara default akan membuatnya dalam skema publik. Untuk mengaksesnya, Anda harus menggunakan tanda kurung siku dengan kualifikasi skema seperti yang ditunjukkan di bawah ini:
postgres=>
select * from [public].pg_stat_statements;
Anda juga dapat membuat ekstensi dari PSQL titik akhir.
Mengotorisasi ekstensi
Secara default, Anda dapat melihat statistik untuk kueri yang dilakukan dalam SQL database T Anda tanpa memerlukan otorisasi apa pun.
Untuk mengakses statistik kueri yang dibuat oleh orang lain, Anda harus memiliki peran pg_read_all_stats
PostgreSQL. Ikuti langkah-langkah yang disebutkan di bawah ini untuk membangun perintah GRANT pg_read_all_stats.
Dalam T-SQL, gunakan query berikut yang mengembalikan nama peran PG internal.
SELECT rolname FROM pg_roles WHERE oid = USER_ID();
Connect ke Babelfish untuk SQL database Aurora Postgre dengan hak istimewa rds_superuser dan gunakan perintah berikut:
GRANT pg_read_all_stats TO <rolname_from_above_query>
Contoh
Dari SQL titik akhir T:
1>
SELECT rolname FROM pg_roles WHERE oid = USER_ID();2>
go
rolname
-------
master_dbo
(1 rows affected)
Dari PSQL titik akhir:
babelfish_db=# grant pg_read_all_stats to master_dbo;
GRANT ROLE
Anda dapat mengakses statistik kueri menggunakan tampilan pg_stat_statements:
1>
create table t1(cola int);2>
go1>
insert into t1 values (1),(2),(3);2>
go
(3 rows affected)
1>
select userid, dbid, queryid, query from pg_stat_statements;2>
go
userid dbid queryid query
------ ---- ------- -----
37503 34582 6487973085327558478 select * from t1
37503 34582 6284378402749466286 SET QUOTED_IDENTIFIER OFF
37503 34582 2864302298511657420 insert into t1 values ($1),($2),($3)
10 34582 NULL <insufficient privilege>
37503 34582 5615368793313871642 SET TEXTSIZE 4096
37503 34582 639400815330803392 create table t1(cola int)
(6 rows affected)
Mengatur ulang statistik kueri
Anda dapat menggunakan pg_stat_statements_reset()
untuk mengatur ulang statistik yang dikumpulkan sejauh ini oleh pg_stat_statements. Untuk mempelajari lebih lanjut, lihat pg_stat_statementsrds_superuser
hak istimewa, gunakan perintah berikut:
SELECT pg_stat_statements_reset();
Batasan
Saat
pg_stat_statements()
ini, tidak didukung melalui T- SQL endpoint.pg_stat_statements
view adalah cara yang disarankan untuk mengumpulkan statistik.Beberapa kueri mungkin ditulis ulang oleh SQL T-parser yang diimplementasikan oleh SQL mesin Aurora Postgre,
pg_stat_statements
tampilan akan menampilkan kueri yang ditulis ulang dan bukan kueri asli.Contoh
select next value for [dbo].[newCounter];
Kueri di atas ditulis ulang sebagai berikut dalam tampilan pg_stat_statements.
select nextval($1);
Berdasarkan alur eksekusi pernyataan, beberapa kueri mungkin tidak dilacak oleh pg_stat_statements dan tidak akan terlihat dalam tampilan. Ini termasuk pernyataan berikut:
use dbname
,goto
,print
,raise error
,set
,throw
,declare cursor
.Untuk CREATE LOGIN dan ALTER LOGIN pernyataan, query dan queryid tidak akan ditampilkan. Ini akan menunjukkan hak istimewa yang tidak memadai.
Tampilan
pg_stat_statements
selalu berisi dua entri di bawah ini, karena ini dijalankan secara internal oleh kliensqlcmd
.SET QUOTED_IDENTIFIER OFF
SETTEXTSIZE4096
Menggunakan pgvector di Babelfish
pgvector, ekstensi sumber terbuka, memungkinkan Anda mencari data serupa secara langsung dalam database Postgres Anda. Babelfish sekarang mendukung ekstensi ini dimulai dengan versi 15.6 dan 16.2. Untuk informasi lebih lanjut, pgvector Open source
Prasyarat
Untuk mengaktifkan fungsionalitas pgvector, instal ekstensi dalam skema sys menggunakan salah satu metode berikut:
-
Jalankan perintah berikut di klien sqlcmd:
exec sys.sp_execute_postgresql 'CREATE EXTENSION vector WITH SCHEMA sys';
Connect to
babelfish_db
dan jalankan perintah berikut di psql client:CREATE EXTENSION vector WITH SCHEMA sys;
catatan
Setelah menginstal ekstensi pgvector, tipe data vektor hanya akan tersedia dalam koneksi database baru yang Anda buat. Koneksi yang ada tidak akan mengenali tipe data baru.
Fungsionalitas yang Didukung
Babelfish memperluas SQL fungsionalitas T- untuk mendukung hal-hal berikut:
Menyimpan
Babelfish sekarang mendukung sintaks yang kompatibel dengan tipe data vektor, meningkatkan kompatibilitas T-nya. SQL Untuk mempelajari selengkapnya tentang menyimpan data dengan pgvector, lihat Menyimpan.
Meminta
Babelfish memperluas dukungan SQL ekspresi T untuk memasukkan operator kesamaan vektor. Namun, untuk semua kueri lainnya, SQL sintaks T standar masih diperlukan.
catatan
T- SQL tidak mendukung tipe Array, dan driver database tidak memiliki antarmuka untuk menanganinya. Sebagai solusinya, Babelfish menggunakan string teks (varchar/nvarchar) untuk menyimpan data vektor. Misalnya, ketika Anda meminta nilai vektor [1,2,3], Babelfish akan mengembalikan string '[1,2,3]' sebagai respons. Anda dapat mengurai dan membagi string ini di tingkat aplikasi sesuai kebutuhan Anda.
Untuk mempelajari lebih lanjut tentang kueri data dengan pgvector, lihat Menanyakan.
Pengindeksan
T- SQL
Create Index
sekarang mendukungUSING INDEX_METHOD
sintaks. Sekarang Anda dapat menentukan operator pencarian kesamaan yang akan digunakan pada kolom tertentu saat membuat indeks.Tata bahasa juga diperluas untuk mendukung operasi kesamaan Vektor pada kolom yang diperlukan (Periksa tata bahasa column_name_list_with_order_for_vector).
CREATE [UNIQUE] [clustered] [COLUMNSTORE] INDEX <index_name> ON <table_name> [USING vector_index_method] (<column_name_list_with_order_for_vector>) Where column_name_list_with_order_for_vector is: <column_name> [ASC | DESC] [VECTOR_COSINE_OPS | VECTOR_IP_OPS | VECTOR_L2_OPS] (COMMA simple_column_name [ASC | DESC] [VECTOR_COSINE_OPS | VECTOR_IP_OPS | VECTOR_L2_OPS])
Untuk mempelajari lebih lanjut tentang pengindeksan data dengan pgvector, lihat Pengindeksan.
Kinerja
Gunakan
SET BABELFISH_STATISTICS PROFILE ON
untuk men-debug Rencana Kueri dari titik SQL akhir T-.Tingkatkan
max_parallel_workers_get_gather
menggunakanset_config
fungsi yang didukung di T-SQL.Gunakan
IVFFlat
untuk perkiraan pencarian. Untuk informasi selengkapnya, lihat IVFFlat.
Batasan
Babelfish tidak mendukung Pencarian Teks Lengkap untuk Pencarian Hibrida. Untuk informasi selengkapnya, lihat Pencarian Hybrid
. Babelfish saat ini tidak mendukung fungsionalitas pengindeksan ulang. Namun, Anda masih dapat menggunakan Postgre SQL endpoint untuk mengindeks ulang. Untuk informasi lebih lanjut, lihat Menyedot debu
.
Menggunakan pembelajaran mesin Amazon Aurora dengan Babelfish
Anda dapat memperluas kemampuan cluster Babelfish untuk Aurora Postgre SQL DB Anda dengan mengintegrasikannya dengan pembelajaran mesin Amazon Aurora. Integrasi tanpa batas ini memberi Anda akses ke berbagai layanan canggih seperti Amazon Comprehend atau Amazon AI atau SageMaker Amazon Bedrock, masing-masing disesuaikan untuk memenuhi kebutuhan pembelajaran mesin yang berbeda.
Sebagai pengguna Babelfish, Anda dapat menggunakan pengetahuan yang ada tentang SQL sintaks T dan semantik saat bekerja dengan pembelajaran mesin Aurora. Ikuti instruksi yang diberikan dalam AWS dokumentasi untuk Aurora Postgre. SQL Untuk informasi selengkapnya, lihat Menggunakan pembelajaran mesin Amazon Aurora dengan Aurora Postgre SQL.
Prasyarat
Sebelum mencoba mengatur Babelfish Anda untuk SQL cluster DB Aurora Postgre untuk menggunakan pembelajaran mesin Aurora, Anda harus memahami persyaratan dan prasyarat terkait. Untuk informasi selengkapnya, lihat Persyaratan untuk menggunakan pembelajaran mesin Aurora dengan Aurora Postgre SQL.
Pastikan Anda menginstal
aws_ml
ekstensi baik menggunakan titik akhir Postgres atau prosedursp_execute_postgresql
penyimpanan.exec sys.sp_execute_postgresql 'Create Extension aws_ml'
catatan
Saat ini Babelfish tidak mendukung operasi kaskade di Babelfish.
sp_execute_postgresql
Karenaaws_ml
bergantung padaaws_commons
, Anda harus menginstalnya secara terpisah menggunakan titik akhir Postgres.create extension aws_common;
Menangani SQL sintaks T- dan semantik dengan fungsi aws_ml
Contoh berikut menjelaskan bagaimana SQL sintaks T- dan semantik diterapkan ke layanan Amazon Amazon Amazon:
contoh : aws_bedrock.invoke_model — Sebuah query sederhana menggunakan fungsi Amazon Bedrock
aws_bedrock.invoke_model( model_id varchar, content_type text, accept_type text, model_input text) Returns Varchar(MAX)
Contoh berikut menunjukkan cara memanggil model Anthropic Claude 2 untuk Bedrock menggunakan invoke_model.
SELECT aws_bedrock.invoke_model ( 'anthropic.claude-v2', -- model_id 'application/json', -- content_type 'application/json', -- accept_type '{"prompt": "\n\nHuman: You are a helpful assistant that answers questions directly and only using the information provided in the context below. \nDescribe the answerin detail.\n\nContext: %s \n\nQuestion: %s \n\nAssistant:","max_tokens_to_sample":4096,"temperature" :0.5,"top_k":250,"top_p":0.5,"stop_sequences":[]}' -- model_input );
contoh : aws_comprehend.detect_sentiment — Kueri sederhana menggunakan fungsi Amazon Comprehend
aws_comprehend.detect_sentiment( input_text varchar, language_code varchar, max_rows_per_batch int) Returns table (sentiment varchar, confidence real)
Contoh berikut menunjukkan cara memanggil layanan Amazon Comprehend.
select sentiment from aws_comprehend.detect_sentiment('This is great', 'en');
contoh : aws_sagemaker.invoke_endpoint — Sebuah query sederhana menggunakan fungsi Amazon SageMaker
aws_sagemaker.invoke_endpoint( endpoint_name varchar, max_rows_per_batch int, VARIADIC model_input "any") -- Babelfish inherits PG's variadic parameter type Rerurns Varchar(MAX)
Karena model_input ditandai sebagai VARIADIC dan bertipe “any”, pengguna dapat meneruskan daftar dengan panjang berapa pun dan tipe data apa pun ke fungsi yang akan bertindak sebagai input input ke model. Contoh berikut menunjukkan cara memanggil SageMaker layanan Amazon.
SELECT CAST (aws_sagemaker.invoke_endpoint( 'sagemaker_model_endpoint_name', NULL, arg1, arg2 -- model inputs are separate arguments ) AS INT) -- cast the output to INT
Untuk informasi lebih rinci tentang penggunaan pembelajaran mesin Aurora dengan Aurora Postgre, lihat. SQL Menggunakan pembelajaran mesin Amazon Aurora dengan Aurora Postgre SQL
Batasan
-
Meskipun Babelfish tidak mengizinkan pembuatan array, Babelfish masih dapat menangani data yang mewakili array. Saat Anda menggunakan fungsi seperti array pengembalian
aws_bedrock.invoke_model_get_embeddings
itu, hasilnya dikirimkan sebagai string yang berisi elemen array.