データを変換する - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

データを変換する

Amazon SageMaker Data Wrangler は、データのクリーニング、変換、および機能化を合理化するために、多数の ML データ変換を提供します。変換を追加すると、データフローにステップが追加されます。追加する各変換によってデータセットが変更され、新しいデータフレームが生成されます。それ以降のすべての変換は、結果のデータフレームに適用されます。

Data Wrangler には、コードなしで列を変換するために使用できる組み込みの変換が含まれています。、Python (ユーザー定義関数) PySpark、panda、および を使用してカスタム変換を追加することもできます PySpark SQL。一部の変換は所定の位置で動作しますが、その他の変換はデータセットに新しい出力列を作成します。

変換は複数の列に一度に適用できます。例えば、1 つのステップで複数の列を削除できます。

数値を処理変換および欠落を処理変換を適用できるのは 1 つの列のみです。

このページでは、これらの組み込みの変換とカスタム変換の詳細ついて説明します。

変換 UI

組み込みの変換のほとんどは、Data Wrangler の [Prepare] (準備) タブに配置されています。データフロービューから結合変換と連結変換にアクセスできます。次の表でこれらの 2 つのビューをプレビューします。

Transform

データフローのどのステップにも変換を追加できます。次の手順に従って、データフローに変換を追加します。

データフローにステップを追加するには、次を行います。

  1. データフローのステップの横にある [+] を選択します。

  2. [変換を追加] を選択します。

  3. [Add step] (ステップを追加) を選択します。

    [変換] セクションの上部にある [ステップを追加]。
  4. 変換を選択します。

  5. (オプション) 使用する変換を検索できます。Data Wrangler は結果内のクエリを強調表示します。

    ADD TRANSFORM セクションの上部にある検索ボックス。
Join View

2 つのデータセットを結合するには、データフローで最初のデータセットを選択し、[Join] (結合) を選択します。[結合] を選択すると、次の図に示すような結果が表示されます。左のパネルに、左と右のデータセットが表示されます。メインパネルに、新しく結合されたデータセットが追加されたデータフローが表示されます。

Data Wrangler コンソールのデータフローセクションの結合データセットフロー。

[設定] を選択して結合を設定すると、次の図に示すような結果が表示されます。結合設定は左側のパネルに表示されます。このパネルを使用して、結合されたデータセット名、結合タイプ、列を選択できます。メインパネルには 3 つのテーブルが表示されます。上位 2 つのテーブルには、左側と右側のそれぞれに [左] データセットと [右] データセットが表示されます。このテーブルでは、結合されたデータセットをプレビューできます。

Data Wrangler コンソールのデータフローセクションの結合データセットテーブル。

詳細については、「データセットを結合する」を参照してください。

Concatenate View

2 つのデータセットを連結するには、データフローの最初のデータセットを選択し、[Concatenate] (連結) を選択します。[Concatenate] (連結) を選択すると、次の図に示すような結果が表示されます。左のパネルに、左と右のデータセットが表示されます。メインパネルに、新しく連結されたデータセットが追加されたデータフローが表示されます。

Data Wrangler コンソールのデータフローセクションの連結データセットフローの例。

[設定] を選択して連結を設定すると、次の図に示すような結果が表示されます。連結設定は左側のパネルに表示されます。このパネルを使用して、連結されたデータセットの名前を選択し、連結後の重複を削除したり、ソースデータフレームを示す列を追加したりできます。メインパネルには 3 つのテーブルが表示されます。上位 2 つのテーブルには、左側と右側のそれぞれに [左] データセットと [右] データセットが表示されます。このテーブルでは、連結されたデータセットをプレビューできます。

Data Wrangler コンソールのデータフローセクションの連結データセットテーブルの例。

詳細については、「データセットを連結する」を参照してください。

データセットを結合する

データフレームをデータフローに直接結合します。2 つのデータセットを結合すると、結合されたデータセットがフローに表示されます。Data Wrangler では以下の結合タイプがサポートされています。

  • Left Outer (左外部) - 左側のテーブルからすべての行を含めます。左側のテーブル行で結合された列の値が、右側のテーブル行の値と一致しない場合、その行には、結合されたテーブルの右側のテーブル列すべての NULL 値が含まれます。

  • Left Anti (左反) - 結合された列に対して右側のテーブルの値を含まない左側のテーブルから行を含めます。

  • Left semi (左半) - join ステートメントの条件を満たすすべての同じ行について、左側のテーブルから 1 行を含めます。これにより、結合の条件に一致する重複行が左側のテーブルから除外されます。

  • Right Outer (右外部) - 右側のテーブルからすべての行を含めます。右側のテーブル行で結合された列の値が、左側のテーブル行のいずれかの値と一致しない場合、その行には、結合されたテーブルですべての左側のテーブル列に対する NULL 値が含まれます。

  • Inner (内部) - 結合された列で一致する値を含む左側と右側のテーブルから行を含めます。

  • Full Outer (完全外部) - 左側と右側のテーブルからすべての行を含めます。いずれかのテーブルで結合された列に対する行の値が一致しない場合、結合されたテーブルに別々の行が作成されます。結合されたテーブルで列の値が行に含まれていない場合、その列に null が挿入されます。

  • Cartesian Cross (デカルトクロス) - 最初のテーブルの各行と 2 番目のテーブルの各行を結合する行を含めます。これは結合内でテーブルからの行のデカルト積です。この積の結果は、左側のテーブルのサイズに右側のテーブルのサイズを乗算したものです。したがって、非常に大きなデータセット間でこの結合を使用する場合は注意が必要です。

次の手順を使用して 2 つのデータフレームを結合します。

  1. 結合する左側のデータフレームの横にある [+] を選択します。最初に選択するデータフレームは、常に結合内の左側のテーブルになります。

  2. [参加] を選択します。

  3. 右側のデータフレームを選択します。2 番目に選択するデータフレームは、常に結合内の右側のテーブルになります。

  4. [設定] を選択して結合を設定します。

  5. [Name] (名前) フィールドを使用して結合したデータセットに名前を付けます。

  6. [Join type] (結合タイプ) を選択します。

  7. 結合する左側と右側のテーブルから列を選択します。

  8. [適用] を選択して、右側で結合したデータセットをプレビューします。

  9. 結合したテーブルをデータフローに追加するには、[追加] を選択します。

データセットを連結する

2 つのデータセットを連結します。
  1. 連結する左側のデータフレームの横にある [+] を選択します。最初に選択するデータフレームは、常に連結内の左側のテーブルになります。

  2. [連結] を選択します。

  3. 右側のデータフレームを選択します。2 番目に選択するデータフレームは、常に連結内の右側のテーブルになります。

  4. [設定] を選択して連結を設定します。

  5. [Name] (名前) フィールドを使用して連結したデータセットに名前を付けます。

  6. (オプション) [連結後に重複を削除] の横にあるチェックボックスをオンにして、重複する列を削除します。

  7. (オプション) 新しいデータセット内の列ごとに列のソースのインジケータを追加する場合は、[ソースデータフレームを示す列を追加] チェックボックスをオンにします。

  8. [適用] を選択して新しいデータセットをプレビューします。

  9. [追加] を選択して、新しいデータセットをデータフローに追加します。

バランスデータ

データセットのデータを、過小評価のカテゴリでバランスを取ることができます。データセットのバランスをとることで、バイナリ分類に適したモデルを作成できます。

注記

列ベクトルを含むデータセットのバランスをとることはできません。

次のものを使用できます。バランスデータオペレーションを使用して、次のいずれかの演算子を使用してデータのバランスをとります。

  • ランダムオーバーサンプリング – 少数カテゴリ内のサンプルをランダムに複製します。例えば、不正を検出しようとしている場合、データの 10% に詐欺のケースしか発生しない可能性があります。不正ケースと非詐欺ケースが等しい割合の場合、このオペレーターはデータセット内の不正ケースを 8 回ランダムに複製します。

  • ランダムアンダーサンプリング — ランダムオーバーサンプリングとほぼ同等です。過剰表現されたカテゴリからサンプルをランダムに削除して、目的のサンプルの割合を取得します。

  • Synthetic Minority Oversampling Technique (SMOTE) — 少数派の少数派の新規サンプルを補間するために、少数派の少数派が過小評価されているカテゴリのサンプルを使用します。の詳細についてはSMOTE、以下の説明を参照してください。

数値特徴量と非数値特徴量の両方を含むデータセットには、すべての変換を使用できます。SMOTE は、隣接するサンプルを使用して値を補間します。Data Wrangler は R 二乗距離を使用して近傍を決定し、追加のサンプルを補間します。Data Wrangler は、数値特徴量のみを使用して、過小表現グループ内のサンプル間の距離を計算します。

過小表現のグループ内の 2 つの実サンプルについて、Data Wrangler は加重平均を使用して数値特徴量を内挿します。[0, 1] の範囲のサンプルにランダムに重みを割り当てます。数値特徴量の場合、Data Wrangler はサンプルの加重平均を使用してサンプルを補間します。サンプル A と B の場合、Data Wrangler は A に 0.7、0.3 を B にランダムに割り当てることができます。補間されたサンプルの値は 0.7A + 0.3B です。

Data Wrangler は、内挿された実サンプルからコピーして、数値以外の特徴を補間します。各サンプルにランダムに割り当てられる確率でサンプルをコピーします。サンプル A と B の場合、確率を A に 0.8、B に 0.2 を割り当てることができます。割り当てられた確率については、時間の A を 80% コピーします。

カスタム変換

Custom Transforms グループを使用すると、Python (ユーザー定義関数) PySpark、panda、または PySpark (SQL) を使用してカスタム変換を定義できます。3 つのオプションすべてに対して、変数 df を使用し、変換を適用するデータフレームにアクセスします。カスタムコードをデータフレームに適用するには、df 変数に対して行った変換を含むデータフレームを割り当てます。Python (ユーザー定義関数) を使用していない場合は、return ステートメントを含める必要はありません。[プレビュー] を選択してカスタム変換の結果をプレビューします。[追加] を選択して、カスタム変換を前のステップのリストに追加します。

一般的なライブラリは、次のようなカスタム変換コードブロック内の import ステートメントでインポートできます。

  • NumPy バージョン 1.19.0

  • scikit-learn バージョン 0.23.2

  • SciPy バージョン 1.5.4

  • pandas バージョン 1.0.3

  • PySpark バージョン 3.0.0

重要

カスタム変換では、名前にスペースや特殊文字が含まれる列はサポートされません。英数字とアンダースコアのみを含む列名を指定することをお勧めします。[Manage columns] (列を管理) 変換グループで [Rename column] (列名を変更) を使用し、列の名前からスペースを削除できます。次のように、Python (Pandas) カスタム変換を追加して 1 つのステップで複数の列からスペースを削除することもできます。この例では、A columnB column という名前の列を、A_columnB_column にそれぞれ変更します。

df.rename(columns={"A column": "A_column", "B column": "B_column"})

コードブロックに print ステートメントを含めると、[Preview] (プレビュー) の選択時に結果が表示されます。カスタムコードトランスフォーマーパネルのサイズは変更できます。パネルのサイズを変更すると、コードを記述するためのスペースが増えます。以下の画像は、パネルのサイズ変更を示しています。

Python 関数の場合は、pd.Series の下のコメントを自分のコードに置き換えます。

以下のセクションでは、カスタム変換コードを作成するための追加のコンテキストと例を紹介します。

Python (ユーザー定義関数)

Python 関数を使うと、Apache Spark や pandas のことを知らなくてもカスタム変換を書くことができます。Data Wrangler は、カスタムコードをすばやく実行できるように最適化されています。カスタム Python コードと Apache Spark プラグインを使用しても、同様のパフォーマンスが得られます。

Python (ユーザー定義関数) コードブロックを使用するには、次のように指定します。

  • 入力列 – 変換を適用する入力列。

  • モード – pandas または Python のスクリプトモード。

  • 戻り値の型 – 返す値のデータ型。

pandas モードを使用するとパフォーマンスが向上します。Python モードでは、純粋な Python 関数を使用して変換を簡単に記述できます。

次の動画は、カスタムコードを使用して変換を作成する方法の例を示しています。Titanic データセットを使用して、その人のあいさつ文を含む列を作成します。

Python 関数の場合は、pd.Series の下のコメントを自分のコードに置き換えます。

PySpark

次の例では、タイムスタンプから日付と時刻が抽出されます。

from pyspark.sql.functions import from_unixtime, to_date, date_format df = df.withColumn('DATE_TIME', from_unixtime('TIMESTAMP')) df = df.withColumn( 'EVENT_DATE', to_date('DATE_TIME')).withColumn( 'EVENT_TIME', date_format('DATE_TIME', 'HH:mm:ss'))

pandas

次の例は、変換を追加するデータフレームの概要を示します。

df.info()

PySpark (SQL)

次の例では、name、fare、pclass、survival の 4 つの列を持つ新しいデータフレームを作成します。

SELECT name, fare, pclass, survived FROM df

の使用方法がわからない場合は PySpark、カスタムコードスニペットを使用して開始できます。

Data Wrangler には、検索可能なコードスニペットのコレクションがあります。コードスニペットを使用して、列の削除、列ごとのグループ化、モデリングなどのタスクを実行できます。

コードスニペットを使用するには、[サンプルスニペットを検索] を選択し、検索バーにクエリを指定します。クエリで指定するテキストは、コードスニペットの名前と完全に一致する必要はありません。

次の例は、データセット内の類似データを含む行を削除できる Drop duplicate rows コードスニペットを示しています。次のいずれかを検索すると、コードスニペットを見つけることができます。

  • Duplicates

  • Identical

  • Remove

次のスニペットには、必要な変更を理解するのに役立つコメントがあります。ほとんどのスニペットでは、コード内でデータセットの列名を指定する必要があります。

# Specify the subset of columns # all rows having identical values in these columns will be dropped subset = ["col1", "col2", "col3"] df = df.dropDuplicates(subset) # to drop the full-duplicate rows run # df = df.dropDuplicates()

スニペットを使用するには、その内容をコピーして [カスタム変換] フィールドに貼り付けます。複数のコードスニペットをコピーして [カスタム変換] フィールドに貼り付けることができます。

カスタム計算式

カスタム式を使用して、Spark SQL式を使用して現在のデータフレーム内のデータをクエリする新しい列を定義します。クエリは Spark SQL式の規則を使用する必要があります。

重要

カスタム計算式では、名前にスペースや特殊文字が含まれる列はサポートされません。英数字とアンダースコアのみを含む列名を指定することをお勧めします。[Manage columns] (列を管理) 変換グループで [Rename column] (列名を変更) を使用し、列の名前からスペースを削除できます。次のように、Python (Pandas) カスタム変換を追加して 1 つのステップで複数の列からスペースを削除することもできます。この例では、A columnB column という名前の列を、A_columnB_column にそれぞれ変更します。

df.rename(columns={"A column": "A_column", "B column": "B_column"})

この変換を使用して列を名前で参照し、列に対してオペレーションを実行できます。例えば、現在のデータフレームに col_acol_b という名前の列が含まれていると仮定する場合、次のオペレーションを使用して次のコードを含む 2 つの列の積である出力列を生成できます。

col_a * col_b

データフレームに col_acol_b 列が含まれることを仮定した、以下のような一般的なオペレーションがあります。

  • 2 つの列を連結する: concat(col_a, col_b)

  • 2 つの列を追加する: col_a + col_b

  • 2 つの列を減算する: col_a - col_b

  • 2 つの列を分割する: col_a / col_b

  • 列の絶対値を取得する: abs(col_a)

データの選択の詳細については、Spark ドキュメントを参照してください。

データセット内の次元を減らす

プリンシパルコンポーネント分析 () を使用して、データのディメンションを減らしますPCA。データセットの次元は特徴量の数に対応します。Data Wrangler で次元削減を使用すると、コンポーネントと呼ばれる新しい機能セットが得られます。各コンポーネントは、データ内のある程度の変動を考慮します。

最初のコンポーネントは、データの変動の最大の原因です。2 番目のコンポーネントはデータの 2 番目に大きい変動量を占め、以降も同様です。

次元削減を使用すると、モデルのトレーニングに使用するデータセットのサイズを小さくすることができます。データセット内の特徴量を使用する代わりに、プリンシパルコンポーネントを使用することもできます。

を実行するためにPCA、Data Wrangler はデータの軸を作成します。軸はデータセット内の列のアフィン結合です。最初のプリンシパルコンポーネントは、最大の分散量を持つ軸上の値です。2 番目のプリンシパルコンポーネントは、2 番目に大きな分散量を持つ軸上の値です。n 番目のプリンシパルコンポーネントは、n 番目に大きな分散量を持つ軸上の値です。

Data Wrangler が返すプリンシパルコンポーネントの数は設定できます。プリンシパルコンポーネントの数を直接指定することも、分散しきい値のパーセンテージを指定することもできます。プリンシパルコンポーネントはデータの変動量を説明します。例えば、値が 0.5 のプリンシパルコンポーネントがあるとします。このコンポーネントはデータ変動の 50% を説明します。分散しきい値パーセンテージを指定すると、Data Wrangler は指定したパーセンテージを満たす最小数のコンポーネントを返します。

以下は、プリンシパルコンポーネントとそれによって説明される分散量の例をデータで示しています。

  • コンポーネント 1 – 0.5

  • コンポーネント 2 – 0.45

  • コンポーネント 3 – 0.05

分散しきい値のパーセンテージを 94 または 95 に指定すると、Data Wrangler はコンポーネント 1 とコンポーネント 2 を返します。分散しきい値のパーセンテージを 96 に指定すると、Data Wrangler は 3 つすべてのプリンシパルコンポーネントを返します。

次の手順を使用して、データセットPCAで を実行できます。

データセットPCAで を実行するには、以下を実行します。

  1. Data Wrangler のデータフローを開きます。

  2. + を選択し、[変換を追加] を選択します。

  3. [Add step] (ステップを追加) を選択します。

  4. [次元削減] を選択します。

  5. [入力列] では、プリンシパルコンポーネントに削減する特徴量を選択します。

  6. (オプション) [プリンシパルコンポーネント数] では、Data Wrangler がデータセットから返すプリンシパルコンポーネントの数を選択します。フィールドの値を指定する場合、[分散しきい値パーセンテージ] の値は指定できません。

  7. (オプション) [分散しきい値パーセンテージ]、プリンシパルコンポーネントによって説明するデータの変動率を指定します。分散しきい値を指定しない場合、Data Wrangler はデフォルト値 95 を使用します。[プリンシパルコンポーネント数] に値を指定した場合、分散しきい値パーセンテージは指定できません。

  8. (オプション) 列の平均をデータの中心として使用しないためには、[中心] を選択解除します。デフォルトでは、Data Wrangler はスケーリング前にデータを平均でセンタリングします。

  9. (オプション) データを単位標準偏差でスケールしないためには、[スケール] を選択解除します。

  10. (オプション) コンポーネントを別の列に出力するには、[列] を選択します。コンポーネントを 1 つのベクトルとして出力するには、[ベクトル] を選択します。

  11. (オプション) [出力列] で、出力列の名前を指定します。コンポーネントを別々の列に出力する場合、指定する名前はプレフィックスです。コンポーネントをベクトルに出力する場合、指定する名前はベクトル列の名前です。

  12. (オプション) [入力列を保持] を選択します。モデルのトレーニングにプリンシパルコンポーネントのみを使用する予定がある場合は、このオプションを選択することはお勧めしません。

  13. [プレビュー] を選択します。

  14. [追加] を選択します。

カテゴリ別にエンコードする

カテゴリ別データは通常、有限数のカテゴリで構成され、各カテゴリは文字列で表されます。例えば、顧客データのテーブルがある場合、顧客が住んでいる国を示す列はカテゴリです。カテゴリはアフガニスタン、アルバニア、アルジェリアなど、さまざまです。カテゴリ別データは公称または序数にできます。序数カテゴリには固有の順序があり、公称カテゴリに固有の順序はありません。取得した最高学位 (高校、学士、修士) は、序数カテゴリの一例です。

カテゴリ別データのエンコーディングは、カテゴリの数値表現を作成するプロセスです。例えば、カテゴリが犬と猫の場合、犬を表す [1,0] と猫を表す [0,1] の 2 つのベクトルにこの情報をエンコードできます。

序数カテゴリをエンコードする場合、カテゴリの自然順序をエンコーディングに変換する必要があることがあります。例えば、{"High school": 1, "Bachelors": 2, "Masters":3} のマップで得られた最高学位を表すことができます。

カテゴリ別エンコーディングを使用して、文字列形式のカテゴリ別データを整数の配列にエンコードします。

Data Wrangler カテゴリ別エンコーダは、ステップの定義時に列に存在するすべてのカテゴリのエンコーディングを作成します。Data Wrangler ジョブを開始して時間 t にデータセットを開始するときに新しいカテゴリが列に追加され、この列が時間 t-1 における Data Wrangler のカテゴリ別エンコーディング変換の入力であった場合、これらの新しいカテゴリは Data Wrangler ジョブで欠落していると見なされます。[Invalid handling strategy] (無効な処理戦略) に対して選択するオプションはこれらの欠落した値に適用されます。この問題が発生する可能性がある例を以下に示します。

  • .flow ファイルを使用して Data Wrangler ジョブを作成し、データフローの作成後に更新されたデータセットを処理する場合。データフローを使用して毎月の売上データを定期的に処理する場合などです。売上データが毎週更新される場合、エンコードのカテゴリ別ステップが定義された列に新しいカテゴリが導入される可能性があります。

  • データセットのインポート時に [Sampling] (サンプリング) を選択した場合、一部のカテゴリがサンプルから除外されることがあります。

このような状況において、これらの新しいカテゴリは Data Wrangler ジョブで欠落した値と見なされます。

序数とワンホットエンコードから選択して設定できます。これらのオプションの詳細については、次のセクションを参照してください。

どちらの変換も、[Output column name] (出力列名) という名前の新しい列を作成します。この列の出力形式は、[Output style] (出力スタイル) で指定します。

  • [Vector] (ベクトル) を選択してスパースベクトルを含む 1 つの列を生成します。

  • [Column] (列) を選択し、元の列のテキストにそのカテゴリと等しい値が含まれているかどうかを示すインジケータ変数を使用して、すべてのカテゴリの列を作成します。

序数エンコード

[Ordinal encode] (序数エンコード) を選択し、0 と選択した [Input column] (入力列) のカテゴリ総数との間の整数にカテゴリをエンコードします。

Invalid handing strategy (無効な処理戦略): 無効な値または欠落した値を処理する方法を選択します。

  • 欠落した値のある行を省略する場合は [Skip] (省略) を選択します。

  • 欠落した値を最後のカテゴリとして保持する場合は [Keep] (保持) を選択します。

  • 欠落した値が [Input column] (入力列) で検出された場合に Data Wrangler でエラーをスローさせる場合は [Error] (エラー) を選択します。

  • 欠落した値を NaN に置き換える場合は [Replace with NaN] (NaN に置き換え) を選択します。このオプションは、ML アルゴリズムで欠落した値を処理できる場合に推奨されます。それ以外の場合、このリストの最初の 3 つのオプションから、より良い結果が得られる可能性があります。

ワンホットエンコード

[Transform] (変換) に対して [One-hot encode] (ワンホットエンコード) を選択し、ワンホットエンコーディングを使用します。この変換は、以下を使用して設定します。

  • Drop last category (最後のカテゴリをドロップ): True の場合、最後のカテゴリにワンホットエンコーディングに対応するインデックスはありません。欠落した値を使用できる場合、欠落しているカテゴリは常に最後のカテゴリになり、これを True に設定すると欠落した値がすべてゼロベクトルになることを意味します。

  • Invalid handing strategy (無効な処理戦略): 無効な値または欠落した値を処理する方法を選択します。

    • 欠落した値のある行を省略する場合は [Skip] (省略) を選択します。

    • 欠落した値を最後のカテゴリとして保持する場合は [Keep] (保持) を選択します。

    • 欠落した値が [Input column] (入力列) で検出された場合に Data Wrangler でエラーをスローさせる場合は [Error] (エラー) を選択します。

  • Is input ordinal encoded (入力の序数がエンコードされている): 入力ベクトルに序数でエンコードされたデータが含まれている場合、このオプションを選択します。このオプションでは、入力データに負でない整数が含まれている必要があります。True の場合、入力 i は、i 番目の場所のゼロ以外のベクトルとしてエンコードされます。

類似度エンコード

次のような場合は、類似度エンコーディングを使用します。

  • 多数のカテゴリ変数

  • ノイズの多いデータ

類似度エンコーダーは、カテゴリカルデータを含む列の埋め込みを作成します。埋め込みとは、単語などの個別オブジェクトから実数のベクトルへのマッピングです。類似する文字列を、同様の値を含むベクトルにエンコードします。例えば、「California」と「Calfornia」に非常によく似たエンコーディングを作成します。

Data Wrangler は、3 グラムのトークナイザーを使用して、データセット内の各カテゴリをトークンのセットに変換します。これは、最小ハッシュエンコーディングを使用してトークンを埋め込みに変換します。

次の例は、類似度エンコーダーが文字列からベクトルを作成する方法を示しています。

Data Wrangler コンソールのテーブルENCODECATEGORICALに を使用する例。
Data Wrangler コンソールのテーブルにある変数のベクトル表現の例。

Data Wrangler が作成する類似度エンコーディングは次のとおりです。

  • 次元性が低い

  • 多数のカテゴリに対応できるスケーラブルですか

  • 堅牢でノイズに強いですか

上記の理由から、類似度エンコーディングは、ワンホットエンコーディングよりも汎用性が高いです。

類似度エンコーディング変換をデータセットに追加するには、以下の手順に従います。

類似度エンコーディングを使用するには、次の手順を実行します。

  1. Amazon SageMaker コンソール にサインインします。

  2. Open Studio Classic を選択します。

  3. [アプリの起動] を選択します。

  4. [Studio] を選択します。

  5. データフローを指定します。

  6. 変換のあるステップを選択します。

  7. [Add step] (ステップを追加) を選択します。

  8. [カテゴリでエンコードする] を選択します。

  9. 次を指定します:

    • 変換類似度エンコード

    • 入力列 – エンコードするカテゴリデータを含む列。

    • ターゲットディメンション – (オプション) カテゴリカル埋め込みベクトルの次元。デフォルト値は 30 です。多数のカテゴリを持つ大規模なデータセットがある場合は、より大きなターゲットディメンションを使用することをお勧めします。

    • 出力スタイル – すべてのエンコードされた値を持つ 1 つのベクトルの場合は、[ベクトル] を選択します。エンコードされた値を別の列に含めるには、[列] を選択します。

    • 出力列 – (オプション) ベクトルエンコードされた出力の出力列の名前。列エンコードされた出力の場合、これは列名のプレフィクスとその後にリストされた数字が続きます。

テキストを特徴化する

テキストを特徴化変換グループを使用して文字列型の列を検査し、テキストの埋め込みを使用してこれらの列を特徴化します。

この特徴グループには、文字統計とベクトル化の 2 つの特徴が含まれます。これらの変換の詳細については、次のセクションを参照してください。どちらのオプションにも、[Input column] (入力列) テキストデータ (文字列型) を含める必要があります。

文字統計

[文字統計] を選択して、テキストデータを含む列の各行に対する統計を生成します。

この変換は、各行に対する次の比率とカウントを計算し、結果をレポートする新しい列を作成します。新しい列の名前は、入力列名をプレフィックスとして使用し、比率またはカウントに固有のサフィックスを使用します。

  • 単語数: その行の合計単語数。この出力列のサフィックスは -stats_word_count です。

  • 文字数: その行の合計文字数。この出力列のサフィックスは -stats_char_count です。

  • 大文字の比率: A から Z までの大文字の数を、列のすべての文字数で割った数。この出力列のサフィックスは -stats_capital_ratio です。

  • 小文字の比率: a から z までの小文字の数を、列のすべての文字数で割った数。この出力列のサフィックスは -stats_lower_ratio です。

  • 桁の比率: 入力列の数字の桁の合計に対する 1 行の桁の比率。この出力列のサフィックスは -stats_digit_ratio です。

  • 特殊文字の比率: 入力列のすべての文字の合計数に対する英数字以外の文字 (#$&%:@ などの文字) の数の比率。この出力列のサフィックスは -stats_special_ratio です。

ベクトル化

テキストの埋め込みには、語彙の単語やフレーズから実数のベクトルへのマッピングが含まれます。Data Wrangler テキスト埋め込み変換を使用して、テキストデータをトークン化してベクトル化して、用語頻度-逆ドキュメント頻度 (TF-IDF) ベクトルにします。

テキストデータの列に対して TF-IDF を計算すると、各文の各単語はその意味的重要性を表す実数に変換されます。数字が大きいほど頻度が低い単語に関連付けられ、より重要性が高くなる傾向があります。

Vectorize 変換ステップを定義すると、Data Wrangler はデータセット内のデータを使用して、カウントベクタライザーと TF-IDF メソッドを定義します。Data Wrangler ジョブの実行には、これらと同じメソッドを使用します。

この変換は、以下を使用して設定します。

  • 出力列名: この変換により、テキストが埋め込まれた新しい列が作成されます このフィールドを使用して、この出力列の名前を指定します。

  • Tokenizer (トークナイザ): トークナイザが文を単語のリストまたはトークンに変換します。

    [Standard] (スタンダード) を選択し、空白で区切って各単語を小文字に変換するトークナイザを使用します。例えば、"Good dog"["good","dog"] にトークン化されます。

    [Custom] (カスタム) を選択し、カスタマイズしたトークナイザを使用します。[Custom] (カスタム) を選択した場合、次のフィールドを使用してトークナイザを構成できます。

    • Minimum token length (トークンの最小長): トークンが有効になる最小の長さ (文字単位)。デフォルトは 1 です。例えば、トークンの最小長を 3 と指定した場合、a, at, in のような単語はトークン化された文から削除されます。

    • Should regex split on gaps (正規表現をギャップで分割): 選択した場合、[regex] (正規表現) がギャップで分割されます。それ以外の場合、トークンに一致します。デフォルトは True です。

    • Regex pattern (正規表現パターン): トークン化プロセスを定義する正規表現パターン。デフォルトは ' \\ s+' です。

    • 小文字に変換: 選択すると、トークン化前にすべての文字が小文字に変換されます。デフォルトは True です。

    詳細については、Spark ドキュメントの「トークン化」を参照してください。

  • Vectorizer (ベクタライザ): ベクタライザはトークンのリストをスパース数値ベクトルに変換します。各トークンはベクトル内のインデックスに対応し、ゼロ以外の値は入力文中のトークンの存在を示します。2 つのベクタライザオプション [Count] (カウント) と [Hashing] (ハッシュ) から選択できます。

    • [Count vectorize] (カウントベクトル化) は頻度の低いトークンまたは一般的すぎるトークンをフィルタリングするカスタマイズを許可します。[Count vectorize parameters] (カウントベクトル化パラメータ) には以下が含まれます。

      • [Minimum term frequency] (用語の最小頻度): 各行で、頻度の小さい用語 (トークン) がフィルタリングされます。整数を指定する場合、これは絶対しきい値 (包括) です。0 (を含む) から 1 までの分数を指定すると、しきい値は用語の合計数を基準にします。デフォルトは 1 です。

      • Minimum document frequency (ドキュメントの最小頻度): 用語 (トークン) を含める必要がある行の最小数。整数を指定する場合、これは絶対しきい値 (包括) です。0 (を含む) から 1 までの分数を指定すると、しきい値は用語の合計数を基準にします。デフォルトは 1 です。

      • Maximum document frequency (ドキュメントの最大頻度): 用語 (トークン) を含めることができるドキュメント (行) の最大数。整数を指定する場合、これは絶対しきい値 (包括) です。0 (を含む) から 1 までの分数を指定すると、しきい値は用語の合計数を基準にします。デフォルトは 0.999 です。

      • Maximum vocabulary size (最大語彙サイズ): 語彙の最大サイズ。語彙は、列のすべての行のすべての用語 (トークン) で構成されています。デフォルトは 262144 です。

      • Binary outputs (バイナリ出力): 選択すると、ベクトル出力にドキュメント内の用語の出現数は含まれませんが、その出現のバイナリインジケータになります。デフォルトは False です。

      このオプションの詳細については、 の Spark ドキュメントを参照してくださいCountVectorizer

    • [Hashing] (ハッシュ) は計算が高速です。[Hash vectorize parameters] (ハッシュベクタライズパラメータ) には以下が含まれます。

      • Number of features during hashing (ハッシュ中の特徴の数): ハッシュベクタライザは、ハッシュ値に従ってトークンをベクトルインデックスにマッピングします。この機能は、使用可能なハッシュ値の数を決定します。値が大きいほどハッシュ値間の競合は少なくなりますが、次数の出力ベクトルは大きくなります。

      このオプションの詳細については、 の Spark ドキュメントを参照してください。 FeatureHasher

  • Apply IDF はIDF変換を適用します。これは、用語の頻度を TF IDF埋め込みに使用される標準の逆ドキュメントの頻度に乗算します。IDF パラメータには以下が含まれます。

    • Minimum document frequency (ドキュメントの最小頻度): 用語 (トークン) を含める必要があるドキュメントの最小数。count_vectorize が選択したベクトルの場合、デフォルト値を維持し、[Count vectorize parameters] (カウントベクタライズパラメータ) の min_doc_freq フィールドのみを変更します。デフォルトは 5 です。

  • Output format (出力形式):各行の出力形式。

    • [Vector] (ベクトル) を選択してスパースベクトルを含む 1 つの列を生成します。

    • [Flattened] (フラット化) を選択し、元の列のテキストにそのカテゴリと等しい値が含まれているかどうかを示すインジケータ変数を使用して、すべてのカテゴリの列を作成します。フラット化を選択できるのは、[Vectorizer] (ベクタライザ) が [Count vectorizer] (カウントベクタライザ) として設定される場合のみです。

時系列を変換する

Data Wrangler では、時系列データを変換できます。時系列データセット内の値は、特定の時間にインデックス作成されます。例えば、1 日の各時間における店舗内の顧客数を示すデータセットは時系列データセットです。次の表は、時系列データセットの例を示しています。

店舗にいる 1 時間あたりの顧客数

顧客の数 時間 (時)
4 09:00
10 10:00
14 11:00
25 12:00
20 13:00
18 14:00

前の表では、[顧客の数] 列には時系列データが含まれています。時系列データは、[時間 (時)] 列の時間ごとのデータ基づいてインデックス付けれます。

分析に使用できる形式でデータを取得するには、データに対して一連の変換を実行する必要がある場合があります。[Time series] (時系列) 変換グループを使用して時系列データを変換します。実行可能な変換の詳細については、次のセクションを参照してください。

時系列でグループ化する

グループ化操作を使用して、列内の特定の値の時系列データをグループ化できます。

例えば、世帯の 1 日の平均電力使用量を追跡した次の表があるとします。

1 日の平均世帯電力使用量

世帯 ID 日次タイムスタンプ 電力使用量 (kWh) 世帯の占有人数
household_0 1/1/2020 30 2
household_0 1/2/2020 40 2
household_0 1/4/2020 35 3
household_1 1/2/2020 45 3
household_1 1/3/2020 55 4

ID 別のグループ化を選択した場合、次の表が表示されます。

世帯 ID 別にグループ化された電力使用量

世帯 ID 電力使用量シリーズ (kWh) 世帯の占有人数シリーズ
household_0 [30, 40, 35] [2, 2, 3]
household_1 [45, 55] [3, 4]

時系列シーケンスの各エントリは、対応するタイムスタンプ順に並べられます。シーケンスの最初の要素は、シリーズの最初のタイムスタンプに対応します。household_030 は、[電力使用量シリーズ] の最初の値です。30 の値は 1/1/2020 の最初のタイムスタンプに対応します。

開始タイムスタンプと終了タイムスタンプを含めることができます。次の表はその情報がどのように表示されるかを示しています。

世帯 ID 別にグループ化された電力使用量

世帯 ID 電力使用量シリーズ (kWh) 世帯の占有人数シリーズ Start_time End_time
household_0 [30, 40, 35] [2, 2, 3] 1/1/2020 1/4/2020
household_1 [45, 55] [3, 4] 1/2/2020 1/3/2020

次の手順に従って、時系列の列別にグループ化できます。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Time Series] (時系列) を選択します。

  6. [変換][グループ化] を選択します。

  7. [この列でグループ化] で列を指定します。

  8. [Apply to columns] (列に適用) の値を指定します。

  9. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  10. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

時系列データを再サンプリングする

時系列データには通常、取得される間隔が一定ではない観測値があります。例えば、データセットには 1 時間ごとに記録される観測値と 2 時間ごとに記録される別の観測値が含まれる場合があります。

予測アルゴリズムなど、多くの分析では、観測値を一定の間隔で取得する必要があります。再サンプリングにより、データセット内の観測値に対して一定の間隔を確立できます。

時系列をアップサンプリングまたはダウンサンプリングできます。ダウンサンプリングは、データセットの観測値の間隔を大きくします。例えば、1 時間ごとまたは 2 時間ごとに取得される観測値をダウンサンプリングすると、データセット内の各観測値は 2 時間ごとに取得されます。時間単位の観測値は、平均値や中央値などの集計方法を使用して 1 つの値に集計されます。

アップサンプリングは、データセットの観測値の間隔を小さくします。例えば、2 時間ごとに取得される観測値を 1 時間ごとに取得される観測値にアップサンプリングする場合、補間法を使用して 2 時間ごとに取得された観測値から 1 時間ごとに取得される観測値を推測できます。補間方法の詳細については、pandas.DataFrame.interpolate を参照してください。

数値データと非数値データの両方を再サンプリングできます。

[Resample] (再サンプル) オペレーションを使用して、時系列データを再サンプリングします。データセットに複数の時系列がある場合、Data Wrangler は各時系列の時間間隔を標準化します。

次の表は、平均値を集計方法として使用して時系列データをダウンサンプリングする例を示しています。データは 2 時間ごとから 1 時間ごとにダウンサンプリングされます。

ダウンサンプリング前日の 1 時間単位の温度読み取り値

タイムスタンプ 温度 (摂氏)
12:00 30
1:00 32
2:00 35
3:00 32
4:00 30

2 時間ごとにダウンサンプリングされた温度読み取り値

タイムスタンプ 温度 (摂氏)
12:00 30
2:00 33.5
4:00 35

次の手順を使用して、時系列データを再サンプリングできます。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Resample] (再サンプリング) を選択します。

  6. [タイムスタンプ] で、タイムスタンプ列を選択します。

  7. [頻度単位] で、再サンプリングする頻度を指定します。

  8. (オプション) [頻度の数] の値を指定します。

  9. 残りのフィールドを指定して変換を設定します。

  10. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  11. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

欠落している時系列データを処理する

データセットに欠落した値がある場合、次のいずれかを実行できます。

  • 複数の時系列を持つデータセットの場合、指定したしきい値よりも欠落した値が大きい時系列をドロップします。

  • 時系列の他の値を使用して、時系列の欠落した値を帰属化します。

欠落した値を帰属化するには、値を指定するか、推論法を使用してデータを置き換えます。以下に、補間に使用できる方法を示します。

  • Constant value (定数値) - データセットで欠落しているすべてのデータを指定した値に置き換えます。

  • Most common value (最も一般的な値) - 欠落しているすべてのデータを、データセットで最も頻度が高い値に置き換えます。

  • Forward fill (フォワードフィル) - フォワードフィルを使用して、欠落値を欠落値より前にある欠落値以外の値に置き換えます。シーケンス [2, 4, 7, NaN, NaN, NaN, 8] の場合、欠落値はすべて 7 に置き換えられます。フォワードフィルを使用した場合のシーケンスは [2, 4, 7, 7, 7, 7, 8] です。

  • Backward fill (バックワードフィル) - バックワードフィルを使用して、欠落値を欠落値の後にある欠落値以外の値に置き換えます。シーケンス [2, 4, 7, NaN, NaN, NaN, 8] の場合、欠落値はすべて 8 に置き換えられます。バックワードフィルを使用した場合のシーケンスは [2, 4, 7, 8, 8, 8, 8] です。

  • Interpolate (補間) - 補間関数を使用して欠落値を帰属化します。補間に使用できる関数の詳細については、pandas.DataFrame.interpolate を参照してください。

補間法によっては、データセット内の一部の欠落値を帰属化できない場合があります。例えば、[Forward fill] (フォワードフィル) で時系列の先頭に表示される欠落値を計算することはできません。フォワードフィルまたはバックフィルを使用して値を帰属化できます。

セル内または列内の欠落値を帰属化できます。

次の例は、セル内で値がどのように帰属化されるかを示しています。

欠落値のある電力使用量

世帯 ID 電力使用量シリーズ (kWh)
household_0 [30, 40, 35, NaN, NaN]
household_1 [45, NaN, 55]

フォワードフィルを使用して帰属化した値による電力使用量

世帯 ID 電力使用量シリーズ (kWh)
household_0 [30, 40, 35, 35, 35]
household_1 [45, 45, 55]

次の例は、列内で値がどのように帰属化されるかを示しています。

欠落値のある 1 日の平均世帯電力使用量

世帯 ID 電力使用量 (kWh)
household_0 30
household_0 40
household_0 NaN
household_1 NaN
household_1 NaN

フォワードフィルを使用して帰属化した値による平均日次電力使用量

世帯 ID 電力使用量 (kWh)
household_0 30
household_0 40
household_0 40
household_1 40
household_1 40

次の手順に従って、欠落値を処理できます。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Handle missing] (欠落値を処理) を選択します。

  6. [Time series input type] (時系列入力型) で、欠落値をセル内または列に沿って処理するかどうかを選択します。

  7. [Impute missing values for this column] (この列の欠落値を帰属化) で、欠落値がある列を指定します。

  8. [Method for imputing values] (値を帰属化する方法) で、方法を選択します。

  9. 残りのフィールドを指定して変換を設定します。

  10. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  11. 欠落値がある場合、[Method for imputing values] (値を帰属化する方法) でそれらを帰属化する方法を指定できます。

  12. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

時系列データのタイムスタンプを検証する

無効なタイムスタンプデータが含まれている可能性があります。[Validate time stamp] (タイムスタンプを検証) 機能を使用して、データセット内のタイムスタンプが有効かどうかを判断できます。タイムスタンプは、次の 1 つ以上の理由で無効になる可能性があります。

  • タイムスタンプの列に欠落値がある。

  • タイムスタンプの列の値が正しい形式に設定されていない。

データセットに無効なタイムスタンプがある場合、分析を正常に実行することはできません。Data Wrangler を使用して無効なタイムスタンプを特定し、データを消去する必要がある場所を把握できます。

時系列の検証は、次の 2 つの方法のいずれかで動作します。

データセットに欠落値が見つかった場合に次のいずれかの操作を実行するように Data Wrangler を構成できます。

  • 欠落した値または無効な値がある行をドロップする。

  • 欠落した値または無効な値がある行を特定する。

  • データセットに欠落した値または無効な値が見つかった場合はエラーをスローする。

タイムスタンプは、timestamp 型または string 型がある列で検証できます。列に string 型がある場合、Data Wrangler はその列の型を timestamp に変換し、検証を実行します。

次の手順に従って、データセット内のタイムスタンプを検証できます。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Validate timestamps] (タイムスタンプを検証) を選択します。

  6. [タイムスタンプ列] で、タイムスタンプ列を選択します。

  7. [ポリシー] で、欠落しているタイムスタンプを処理するかどうかを選択します。

  8. (オプション) [出力列] で、出力列の名前を指定します。

  9. 日時列が文字列型用に形式が設定されている場合、[Cast to datetime] (日時にキャスト) を選択します。

  10. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  11. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

時系列の長さを標準化する

時系列データを配列として保存している場合、各時系列を同じ長さに標準化できます。時系列配列の長さを標準化すると、データの分析を簡単に実行できる場合があります。

データの長さを固定する必要があるデータ変換のために時系列を標準化できます。

多くの ML アルゴリズムでは、時系列データを使用する前にフラット化する必要があります。時系列データのフラット化とは、時系列の各値をデータセット内の独自の列に分割することです。データセット内の列数は変更できないため、各配列を特徴セットにフラット化して時系列の長さを標準化する必要があります。

各時系列は、時系列セットの分位または百分位として指定した長さに設定されます。例えば、次の長さの 3 つのシーケンスを使用できます。

  • 3

  • 4

  • 5

すべてのシーケンスの長さを 50 番目の百分位の長さとして設定できます。

指定した長さより短い時系列配列には、欠落値が追加されます。次に、時系列をより長い [2, 4, 5, NaN, NaN, NaN] に標準化する形式の例を示します。

さまざまなアプローチを使用して欠落値を処理できます。これらのアプローチの詳細については、「欠落している時系列データを処理する」を参照してください。

指定した長さよりも長い時系列配列は切り捨てられます。

次の手順を使用して、時系列の長さを標準化できます。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Standardize length] (長さを標準化) を選択します。

  6. [Standardize the time series length for the column] (列の時系列長を標準化) で列を選択します。

  7. (オプション) [出力列] で、出力列の名前を指定します。名前を指定しない場合、変換はそのまま行われます。

  8. 日時列が文字列型用に形式が設定されている場合、[日時にキャスト] を選択します。

  9. [カットオフ分位] で分位を指定し,シーケンスの長さを設定します。

  10. [Flatten the output] (出力をフラット化) を選択して、時系列の値を別々の列に出力します。

  11. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  12. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

時系列データから特徴を抽出する

時系列データに対して分類または回帰アルゴリズムを実行している場合、アルゴリズムを実行する前に時系列から特徴量を抽出することをお勧めします。特徴を抽出すると、アルゴリズムのパフォーマンスが向上する可能性があります。

次のオプションを使用して、データから特徴を抽出する方法を選択します。

  • [Minimal subset] (最小サブセット) を使用して、下流の分析で有用であることがわかっている 8 つの特徴の抽出を指定します。計算をすばやく実行する必要がある場合は、最小サブセットを使用できます。ML アルゴリズムが過適合するリスクが高く、より少ない特徴を提供する場合にも使用できます。

  • [Efficient subset] (効率的なサブセット) を使用して、分析で大量の演算を行う特徴を抽出せずに、可能な限り多くの特徴を抽出するように指定します。

  • [All features] (すべての特徴) を使用して、チューニングシリーズから全特徴の抽出を指定します。

  • [Manual subset] (手動サブセット) を使用して、データのバリエーションを適切に説明している思われる特徴のリストを選択します。

次の手順を使用して、時系列データから特徴を抽出します。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Extract features] (特徴を抽出) を選択します。

  6. [Extract features for this column] (この列の特徴を抽出) に対する列を選択します。

  7. (オプション) [フラット化] を選択して特徴量を別々の列に出力します。

  8. [Strategy] (戦略) で、特徴を抽出する戦略を選択します。

  9. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  10. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

時系列データから遅延特徴を使用する

多くのユースケースにおいて、時系列の将来の動作を予測する最良の方法は、最新の動作を使用することです。

遅延特徴の最も一般的な用途は次のとおりです。

  • 過去の値を少しだけ収集する。例えば、時間 t + 1 の場合、t、t - 1、t - 2、t - 3 を収集します。

  • データで季節的な動作に対応する値を収集する。例えば、午後 1 時のレストランの利用率を予測するために、前日の午後 1 時の特徴量を使用できます。同じ日の午前 12 時または午前 11 時からの特徴量を使用しても、前日の特徴量を使用した場合ほどには予測できない可能性があります。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Lag features] (遅延特徴) を選択します。

  6. [Generate features for this column] (この列の特徴を生成) に対する列を選択します。

  7. [タイムスタンプ列] で、タイムスタンプを含む列を選択します。

  8. [Lag] (遅延) で、遅延の長さを指定します。

  9. (オプション) 次のいずれかのオプションを使用して出力を設定します。

    • Include the entire lag window (遅延期間全体を含める)

    • Flatten the output (出力をフラット化)

    • Drop rows without history (履歴のない行をドロップ)

  10. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  11. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

時系列に日時範囲を作成する

タイムスタンプのない時系列データが含まれている場合があります。観測値が一定の間隔で取得されたことがわかっている場合、個別の列で時系列のタイムスタンプを生成できます。タイムスタンプを生成するには、開始タイムスタンプの値とタイムスタンプの頻度を指定します。

例えば、レストランの顧客数に関する次のような時系列データがあるとします。

レストランの顧客数に関する時系列データ

顧客の数
10
14
24
40
30
20

レストランが午後 5 時にオープンし、観測値が 1 時間ごとに取得されることがわかっている場合、時系列データに対応するタイムスタンプ列を追加できます。次の表にタイムスタンプの列を示します。

レストランの顧客数に関する時系列データ

顧客の数 タイムスタンプ
10 1:00 PM
14 2:00 PM
24 3:00 PM
40 4:00 PM
30 5:00 PM
20 6:00 PM

次の手順に従って、データに日時範囲を追加します。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Datetime range] (日時範囲) を選択します。

  6. [頻度タイプ] で、タイムスタンプの頻度を測定するために使用する単位を選択します。

  7. [開始タイムスタンプ] で、開始タイムスタンプを指定します。

  8. [Output column] (出力列) で、出力列の名前を指定します。

  9. (オプション) 残りのフィールドを使用して出力を設定します。

  10. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  11. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

時系列でローリングウィンドウを使用する

一定の期間にわたって特徴を抽出できます。例えば、時間 t、時間枠長 3、t 番目のタイムスタンプを示す行の場合、時系列から抽出される特徴を時間 t - 3、t -2、t - 1 で追加します。特徴の抽出の詳細については、「時系列データから特徴を抽出する」を参照してください。

次の手順に従って、一定の期間にわたって特徴を抽出できます。

  1. Data Wrangler のデータフローを開きます。

  2. データセットをまだインポートしていない場合は、[Import data] (データをインポート) タブからインポートします。

  3. データフローの [Data types] (データ型) で [+] を選択し、[Add transform] (変換を追加) を選択します。

  4. [Add step] (ステップを追加) を選択します。

  5. [Rolling window features] (ローリングウィンドウの特徴) を選択します。

  6. [Generate rolling window features for this column] (この列のローリングウィンドウの特徴を生成) に対する列を選択します。

  7. [タイムスタンプ列] で、タイムスタンプを含む列を選択します。

  8. (オプション) [出力列] で、出力列の名前を指定します。

  9. [Window size] (Window size) で、ウィンドウサイズを指定します。

  10. [Strategy] (戦略) で、抽出戦略を選択します。

  11. [Preview] (プレビュー) を選択して、変換のプレビューを生成します。

  12. [Add] (追加) を選択して、Data Wrangler データフローに変換を追加します。

日時を特徴化

[日付/時刻を特徴化] を使用して、日時フィールドを表すベクトルの埋め込みを作成します。この変換を使用するには、日時データが次のいずれかの形式で指定されている必要があります。

  • "January 1st, 2020, 12:44pm" など、日時を記述する文字列。

  • UNIX タイムスタンプ: UNIX タイムスタンプは、1970 年 1 月 1 日からの秒、ミリ秒、マイクロ秒、ナノ秒の数を表します。

[Infer datetime format] (日時形式を推測) を選択して [Datetime format] (日時形式) を指定できます。日時の形式を指定する場合、「Python ドキュメント」で説明するコードを使用する必要があります。これら 2 つの構成に対して選択するオプションは、オペレーションの速度と最終結果に影響します。

  • 手動による計算が最速のオプションは、[Datetime format] (日時形式) を選択し、[Infer datetime format] (日時形式を推測) に対して [No] (いいえ) を選択します。

  • [日時形式を推測] を選択し、日時の形式を指定しないことで、手動による作業を削減できます。また、これは計算が早いオペレーションでもあります。ただし、入力列で最初に検出された日時の形式が、列全体の形式と見なされます。列に他の形式がある場合、これらの値は最終出力で NaN になります。日時の形式を推測すると、解析されていない文字列が得られる可能性があります。

  • 形式を指定せずに [日時形式を推測][いいえ] を選択すると、最も堅牢な結果が得られます。有効な日時文字列がすべて解析されます。ただし、このオペレーションは、このリストの最初の 2 つのオプションよりも大幅に遅くなる可能性があります。

この変換を使用する場合、前述したいずれかの形式の日時データが含まれている [入力列] を指定します。この変換により、[Output column name] (出力列名) という名前の出力列が作成されます。出力列の形式は、次を使用した構成によって異なります。

  • Vector (ベクトル): 1 つの列をベクトルとして出力します。

  • Columns (列): 特徴ごとに新しい列を作成します。例えば、出力に年、月、日が含まれる場合、年、月、日に対して 3 つの別々の列が作成されます。

また、[Embedding mode] (埋め込みモード) を選択する必要があります。線形モデルと深層ネットワークの場合、[周期的] が推奨されます。ツリーベースのアルゴリズムでは、[序数] が推奨されます。

文字列の形式を設定する

[Format String] (文字列の形式を設定) 変換には、標準の文字列形式を設定するオペレーションが含まれます。例えば、これらのオペレーションを使用して、特殊文字の削除、文字列長の正規化、文字列の大文字と小文字の更新を行うことができます。

この特徴グループには、次の変換が含まれます。すべての変換は、[Input column] (入力列) で文字列のコピーを返し、結果を新しい出力列に追加します。

名前 機能
Left pad (左パディング)

指定された [Fill character] (文字を入力) の文字列を指定された [width] (幅) に左パディングします。文字列が [width] (幅) より長い場合、戻り値は [width] (幅) の文字まで短縮されます。

Right pad (右パディング)

指定された [Fill character] (文字を入力) の文字列を指定された [width] (幅) に右パディングします。文字列が [width] (幅) より長い場合、戻り値は [width] (幅) の文字まで短縮されます。

Center (中央) (両側パディング)

指定された [Fill character] (文字を入力) の文字列を指定された [width] (幅) に中央パディング (文字列の両側にパディング) します。文字列が [width] (幅) より長い場合、戻り値は [width] (幅) の文字まで短縮されます。

Prepend zeros (ゼロに付加)

ゼロから指定された [width] (幅) まで数値文字列を左に入力します。文字列が [width] (幅) より長い場合、戻り値は [width] (幅) の文字まで短縮されます。

Strip left and right (左および右を削除)

先頭と末尾の文字を削除した文字列のコピーを返します。

Strip characters from left (左から文字を削除)

先頭の文字を削除した文字列のコピーを返します。

Strip characters from right (右から文字を削除)

末尾の文字を削除した文字列のコピーを返します。

Lower case (小文字)

テキスト内のすべての文字を小文字に変換します。

Upper case (大文字)

テキスト内のすべての文字を大文字に変換します。

Capitalize (大文字にする)

各文の最初の文字を大文字にします。

Swap case (大文字と小文字を変換) 指定した文字列のすべての大文字を小文字に変換し、すべての小文字を大文字に変換して返します。
Add prefix or suffix (プレフィックスまたはサフィックスを追加)

文字列列にプレフィックスとサフィックスを追加します。[Prefix] (プレフィックス) と [Suffix] (サフィックス) を少なくとも 1 つ指定する必要があります。

Remove Symbols (記号を削除)

指定された記号を文字列から削除します。一覧表示された文字はすべて削除されます。デフォルトは空白に設定されます。

外れ値を処理する

機械学習モデルは、特徴値のディストリビューションと範囲の影響を受けます。外れ値や、希少値は、モデルの精度に悪影響を及ぼし、トレーニング時間が長くなる可能性があります。この特徴グループを使用して、データセット内の外れ値を検出して更新します。

[Handle outliers] (外れ値を処理) 変換ステップを定義すると、外れ値の検出に使用される統計は、このステップの定義時に Data Wrangler で使用可能なデータに対して生成されます。Data Wrangler ジョブの実行時に、これらの同じ統計が使用されます。

このグループに含まれる変換の詳細については、次のセクションを参照してください。[Output name] (出力名) を指定すると、これらの各変換により、結果データを含む出力列が生成されます。

堅牢な標準偏差の数値外れ値

この変換は、外れ値に堅牢な統計を使用して、数値特徴の外れ値を検出して修正します。

[上限分位][下限分位] を定義する必要があります。これは外れ値の計算に使われる統計で使用されます。また、値を外れ値と見なすために必要な平均値からの変化として、[標準偏差] の数値を指定する必要があります。例えば、[Standard deviations] (標準偏差) に 3 を指定すると、外れ値と見なすためには、平均値から 3 標準偏差より低い値である必要があります。

[Fix method] (修正方法) は検出された外れ値の処理に使用する方法です。次から選択できます。

  • [Clip] (クリップ): このオプションを使用して、対応する外れ値の検出範囲に外れ値をクリップします。

  • [削除]: このオプションは、外れ値が含まれる行をデータフレームから削除する場合に使用します。

  • [無効化]: このオプションは、外れ値を無効な値に置き換える場合に使用します。

標準偏差の数値外れ値

この変換は、平均値と標準偏差を使用して、数値特徴の外れ値を検出して修正します。

値を外れ値と見なすために必要な平均値からの変化として、[Standard deviations] (標準偏差) の数を指定します。例えば、[Standard deviations] (標準偏差) に 3 を指定すると、外れ値と見なすためには、平均値から 3 標準偏差より低い値である必要があります。

[Fix method] (修正方法) は検出された外れ値の処理に使用する方法です。次から選択できます。

  • [Clip] (クリップ): このオプションを使用して、対応する外れ値の検出範囲に外れ値をクリップします。

  • [削除]: このオプションは、外れ値が含まれる行をデータフレームから削除する場合に使用します。

  • [無効化]: このオプションは、外れ値を無効な値に置き換える場合に使用します。

分位数の外れ値

この変換を使用して、分位数を使った数値特徴の外れ値を検出して修正します。[上限分位][下位分位] を定義できます。上限分位を上回る値または下位分位を下回る値はすべて外れ値と見なされます。

[Fix method] (修正方法) は検出された外れ値の処理に使用する方法です。次から選択できます。

  • [Clip] (クリップ): このオプションを使用して、対応する外れ値の検出範囲に外れ値をクリップします。

  • [削除]: このオプションは、外れ値が含まれる行をデータフレームから削除する場合に使用します。

  • [無効化]: このオプションは、外れ値を無効な値に置き換える場合に使用します。

最小-最大数値外れ値

この変換は、上限と下限しきい値を使用して、数値特徴の外れ値を検出して修正します。外れ値を定めるしきい値がわかっている場合は、この方法を使用します。

[Upper threshold] (上限しきい値) と [Lower threshold] (下限しきい値) であり、値がこれらのしきい値を上回ったり下回ったりすると、外れ値と見なされます。

[Fix method] (修正方法) は検出された外れ値の処理に使用する方法です。次から選択できます。

  • [Clip] (クリップ): このオプションを使用して、対応する外れ値の検出範囲に外れ値をクリップします。

  • [削除]: このオプションは、外れ値が含まれる行をデータフレームから削除する場合に使用します。

  • [無効化]: このオプションは、外れ値を無効な値に置き換える場合に使用します。

希少値を置き換え

[Replace rare] (希少値を置き換え) 変換を使用してしきい値を指定すると、Data Wrangler はそのしきい値を満たすすべての値を検出し、指定した文字列に置き換えます。例えば、この変換を使用して、列のすべての外れ値を「その他」カテゴリに分類できます。

  • Replacement string (置換文字列): 外れ値に置き換える文字列。

  • Absolute threshold (絶対しきい値): インスタンスの数がこの絶対しきい値以下の場合、このカテゴリは希少値です。

  • Fraction threshold (割合しきい値):インスタンスの数がこの割合しきい値に行数を乗算した値以下次の場合、このカテゴリは希少値です。

  • Max common categories (最大共通カテゴリ): オペレーション後に残る希少ではない最大カテゴリ。しきい値が十分なカテゴリをフィルタリングしない場合、出現数が上位のカテゴリは希少ではないと分類されます。0 (デフォルト) に設定する場合、カテゴリ数に対するハード制限はありません。

欠落した値を処理する

欠落値は機械学習データセットで一般的に発生します。状況によっては、欠落したデータを、平均値やカテゴリで共通の値などの計算値で帰属化することが推奨されます。欠落した値は、[Handle missing values] (欠落値を処理) 変換グループを使用して処理できます。このグループには、次の変換が含まれます。

欠落値を入力する

[Fill missing] (欠落値を入力) を使用して、欠落値を定義した [Fill value] (入力値) と置き換えます。

欠落値を帰属化する

[Impute missing] (欠落値を帰属化) 変換を使用して、入力カテゴリと数値データで欠落値が見つかった帰属化された値を含む新しい列を作成します。設定は、データ型によって異なります。

数値データの場合、帰属化する新しい値を決定するために使用する戦略として、計算戦略を選択します。データセットに存在する値に対して平均値または中央値を帰属化するかを選択できます。Data Wrangler は、計算した値を使用して欠落値を帰属化します。

カテゴリ別データの場合、Data Wrangler は列内で最も頻度の高い値を使用して欠落値を帰属化します。カスタム文字列を帰属化するには、代わりに [Fill missing] (欠落値を入力) 変換を使用します。

欠落値のインジケータを追加する

[欠落値のインジケータを追加] 変換を使用して、行に値が含まれている場合は "false"、行に欠落値が含まれている場合は "true" のブール値を含む新しいインジケータ列を作成します。

欠落値をドロップする

[Drop missing] (欠落値をドロップ) オプションを使用して、欠落値を含む行を [Input column] (入力列) からドロップします。

列を管理する

次の変換を使用して、データセットの列をすばやく更新および管理できます。

名前 機能
Drop Column (列をドロップ) 列を削除します。
Duplicate Column (列を複製) 列を複製します。
Rename Column (列名を変更) 列名を変更します。
Move Column (列を移動)

データセット内の列の位置を移動します。列をデータセットの先頭/末尾、参照列の前/後、または特定のインデックスに移動することを選択します。

行を管理する

この変換グループを使用して、行の並べ替えとシャッフルオペレーションをすばやく実行できます。このグループには、次が含まれます。

  • Sort (並べ替え): データフレーム全体を特定の列で並べ替えます。このオプションの [Ascending order] (昇順) の横にあるチェックボックスをオンにします。それ以外の場合はこのチェックボックスをオフにし、並べ替えに降順を使用します。

  • Shuffle (シャッフル): データセット内のすべての行をランダムにシャッフルします。

ベクトルを管理する

この変換グループを使用して、ベクトル列を結合またはフラット化します。このグループには、次の変換が含まれます。

  • Assemble (組み合わせ): この変換を使用して、Spark ベクトルと数値データを 1 つの列に結合します。例えば、3 つの列 (数値データを含む 2 つの列とベクトルを含む 1 つの列) を組み合わせることができます。結合するすべての列を [Input column] (入力列) に追加し、結合したデータの [Output column name] (出力列名) を指定します。

  • Flatten (フラット化): この変換を使用して、ベクトルデータを含む 1 つの列をフラット化します。入力列には、 PySpark ベクトルまたは配列のようなオブジェクトが含まれている必要があります。[出力数を検出する方法] を指定して作成される列の数を制御できます。例えば、[最初のベクトルの長さ] を選択すると、列で見つかった最初の有効なベクトルまたは配列の要素の数によって、作成される出力列の数が決まります。項目が多すぎる他のすべての入力ベクトルは切り捨てられます。項目が少なすぎる入力は で埋められます NaNs。

    また、出力列ごとにプレフィックスとして使用される [Output prefix] (出力プレフィックス) を指定することもできます。

数値を処理する

[Process Numeric] (数値を処理) 特徴グループを使用して数値データを処理できます。このグループの各スカラーは Spark ライブラリを使用して定義されます。以下のスケーラーがサポートされています。

  • Standard Scaler (標準スケーラー): 各値から平均値を減算し、単位分散にスケーリングして入力列を標準化します。詳細については、 の Spark ドキュメントを参照してくださいStandardScaler

  • Robust Scaler (堅牢なスケーラー): 外れ値に対して堅牢な統計を使用し、入力列をスケーリングします。詳細については、 の Spark ドキュメントを参照してくださいRobustScaler

  • Min Max Scaler (最小最大スケーラー): 各特徴を指定された範囲にスケーリングして、入力列を変換します。詳細については、 の Spark ドキュメントを参照してくださいMinMaxScaler

  • Max Absolute Scaler (最大絶対スケーラー): 各値を最大絶対値で分割し、入力列をスケーリングします。詳細については、 の Spark ドキュメントを参照してくださいMaxAbsScaler

サンプリング

データをインポートしたら、サンプリングトランスフォーマーを使用して、データの 1 つ以上のサンプルを取得できます。サンプリングトランスフォーマーを使用すると、Data Wrangler は元のデータセットをサンプリングします。

次のいずれかのサンプリング方法を選択できます。

  • 上限: 最初の行から指定した上限までデータセットをサンプリングします。

  • ランダム化: 指定したサイズのランダムサンプルを取得します。

  • 層別化: 層別化されたランダムなサンプルを取得します。

ランダム化されたサンプルを層別化して、それがデータセットの元の分布を表していることを確認できます。

複数のユースケースに対してデータ準備を行っている場合があります。ユースケースごとに異なるサンプルを採取し、異なる変換セットを適用できます。

以下の手順では、ランダムサンプルを作成するプロセスを説明します。

データからランダムサンプルを取得するには。

  1. インポートしたデータセットの右にある [+] を選択します。データセットの名前は [+] の下にあります。

  2. [変換を追加] を選択します。

  3. [Sampling] (サンプリング) を選択します。

  4. [サンプリング方法] では、サンプリング方法を選択します。

  5. [おおよそのサンプルサイズ] では、サンプルに含める観測値のおおよその数を選択します。

  6. (オプション) 再現性のあるサンプルを作成するには、[ランダムシード] に整数を指定します。

以下の手順では、層別化サンプルを作成するプロセスを説明します。

データから層別化サンプルを取得するには。

  1. インポートしたデータセットの右にある [+] を選択します。データセットの名前は [+] の下にあります。

  2. [変換を追加] を選択します。

  3. [Sampling] (サンプリング) を選択します。

  4. [サンプリング方法] では、サンプリング方法を選択します。

  5. [おおよそのサンプルサイズ] では、サンプルに含める観測値のおおよその数を選択します。

  6. [層別化列] には、層別化する列の名前を指定します。

  7. (オプション) 再現性のあるサンプルを作成するには、[ランダムシード] に整数を指定します。

検索および編集

このセクションでは、文字列内の特定のパターンを検索および編集する方法について説明します。例えば、文やドキュメント内の文字列を検索して更新したり、区切り文字で文字列を分割したり、特定の文字列の出現を検索したりできます。

次の変換は、[Search and edit] (検索および編集) でサポートされています。すべての変換は、[Input column] (入力列) で文字列のコピーを返し、結果を新しい出力列に追加します。

名前 機能

Find substring (部分文字列を検索)

検索した [部分文字列] の最初に出現したインデックスを返します。検索はそれぞれ [開始] で開始して [終了] で終了します。

Find substring (from right) (部分文字列を右から検索)

検索した [部分文字列] が最後に見つかった位置のインデックスを返します。検索はそれぞれ [開始] で開始して [終了] で終了します。

Matches prefix (プレフィックスに一致)

文字列に指定された [パターン] が含まれている場合にブール値を返します。パターンには、文字シーケンスまたは正規表現のいずれかを指定できます。オプションで、パターンの大文字と小文字を区別できます。

Find all occurrences (すべての出現を検索)

指定されたパターンのすべての出現を含む配列を返します。パターンには、文字シーケンスまたは正規表現のいずれかを指定できます。

Extract using regex (正規表現を使用して抽出)

指定された正規表現パターンに一致する文字列を返します。

Extract between delimiters (区切り文字間を抽出)

[Left delimiter] (左区切り文字) と [Right delimiter] (右区切り文字) の間に見つかったすべての文字を含む文字列を返します。

Extract from position (位置から抽出)

入力文字列の [Start position] (開始位置) から開始し、開始位置に [Length] (長さ) を足した位置までのすべての文字が含まれる文字列を返します。

Find and replace substring (部分文字列を検索して置換)

指定された [Pattern] (パターン) (正規表現) のすべての一致が [Replacement string] (置換文字列) で置き換えられた文字列を返します。

Replace between delimiters (区切り文字を置き換え)

[Left delimiter] (左区切り記号) の最初の出現と [Right delimiter] (右の区切り記号) の最後の出現との間に見つかった部分文字列が [Replacement string] (置換文字列) に置き換えられた文字列を返します。一致が見つからない場合、何も置き換えられません。

Replace from position (位置から置き換え)

[Start position] (開始位置)と [Start position] (開始位置)に [Length] (長さ) を足した位置との間の部分文字列が [Replacement string] (置換文字列) に置き換えられた文字列を返します。[Start position] (開始位置) に [length] (長さ) を足すと、置換文字列の長さよりも長くなる場合、出力に が含まれます。

Convert regex to missing (正規表現を欠落値に変換)

文字列が無効な場合は None に変換して結果を返します。有効性は Pattern (パターン) の正規表現で定義されます。

Split string by delimiter (区切り文字で文字列を分割)

[Delimiter] (区切り記号) で [Max number of splits] (最大分割数) (オプション) まで分割された入力文字列から文字列の配列を返します。区切り文字のデフォルトは空白です。

データの分割

[データの分割] 変換を使用して、データセットを 2 つまたは 3 つのデータセットに分割します。例えば、データセットをモデルのトレーニングに使用するデータセットとテストに使用するデータセットに分割できます。各分割に含まれるデータセットの割合を決定できます。例えば、1 つのデータセットを 2 つのデータセットに分割する場合、トレーニングデータセットには 80% のデータが含まれ、テストデータセットには 20% のデータが含まれるようにできます。

データを 3 つのデータセットに分割すると、トレーニング、検証、テストのデータセットを作成できます。ターゲット列をドロップすると、テストデータセットでのモデルのパフォーマンスを確認できます。

ユースケースによって、各データセットが取得する元のデータセットの量と、データの分割に使用する方法が決まります。例えば、層別化分割を使用して、ターゲット列の観測値の分布がデータセット全体で同じになるようにしたいかもしれません。次の分割変換を使用できます。

  • ランダム分割 – 各分割は、元のデータセットのランダムで重複しないサンプルです。データセットが大きい場合、ランダム分割を使用すると計算コストが高くなり、順序付き分割よりも時間がかかる場合があります。

  • 順序付き分割 – 観測値の順序に基づいてデータセットを分割します。例えば、トレーニングテストを 80/20 に分割すると、データセットの 80% を占める最初の観測値がトレーニングデータセットに送られます。観測値の最後の 20% はテストデータセットに送られます。順序付き分割は、分割間でデータの既存の順序を維持するのに効果的です。

  • 層別化分割 – データセットを分割して、入力列の観測数が比例表現になるようにします。観測値 1、1、1、1、1、1、2、2、2、2、2、2、2、2、3、3、3、3、3、3、3 を持つ入力列の場合、列を 80/20 に分割すると、1 の約 80%、2 の 80%、3 の 80%がトレーニングセットに送られます。各タイプの観測値の約 20% がテストセットに送られます。

  • キーによる分割 – 同じキーを持つデータが複数回分割されるのを防ぎます。例えば、「customer_id」という列を持つデータセットがあり、それをキーとして使用している場合、顧客 ID が複数分割されることはありません。

データを分割したら、各データセットに追加の変換を適用できます。ほとんどのユースケースでは、これらは必要ありません。

Data Wrangler は分割の比率を計算してパフォーマンスを向上させます。誤差のしきい値を選択して分割の精度を設定できます。誤差のしきい値を低くすると、分割に指定した比率がより正確に反映されます。誤差のしきい値を高く設定すると、パフォーマンスは向上しますが、精度は低下します。

データを完全に分割するには、エラーしきい値を 0 に設定します。パフォーマンスを向上させるために 0 から 1 までのしきい値を指定できます。1 より大きい値を指定した場合、Data Wrangler はその値を 1 と解釈します。

データセットに 10,000 行あり、誤差 0.001 で 80/20 の分割を指定した場合、次の結果のいずれかに近い観測値が得られます。

  • トレーニングセットには 8,010 個の観測値、テストセットには 1,990 個の観測値

  • トレーニングセットには 7,990 個の観測値、テストセットには 2,010 個の観測値

前の例のテストセットの観測値の数は 8,010~7,990 の間です。

デフォルトでは、Data Wrangler はランダムシードを使用して分割を再現できるようにします。シードに別の値を指定して、再現可能な別の分割を作成できます。

Randomized split

データセットをランダムに分割するには、次の手順に従います。

データセットをランダムに分割するには、次の手順を実行します。

  1. 分割するデータセットを含むノードの横にある [+] を選択します。

  2. [変換を追加] を選択します。

  3. [データの共有] を選択します。

  4. (オプション) [分割] には、各分割の名前と比率を指定します。比率の合計は 1 になる必要があります。

  5. (オプション) [+] を選択して追加の分割を作成します。

    1. すべての分割の名前と比率を指定します。比率の合計は 1 になる必要があります。

  6. (オプション) [エラーしきい値] にはデフォルト値以外の値を指定します。

  7. (オプション) [ランダムシード] の値を指定します。

  8. [プレビュー] を選択します。

  9. [追加] を選択します。

Ordered split

データセットを順序付き分割するには、次の手順に従います。

データセットを順序付き分割するには、次の手順を実行します。

  1. 分割するデータセットを含むノードの横にある [+] を選択します。

  2. [変換を追加] を選択します。

  3. [変換][順序付き分割] を選択します。

  4. [データの共有] を選択します。

  5. (オプション) [分割] には、各分割の名前と比率を指定します。比率の合計は 1 になる必要があります。

  6. (オプション) [+] を選択して追加の分割を作成します。

    1. すべての分割の名前と比率を指定します。比率の合計は 1 になる必要があります。

  7. (オプション) [エラーしきい値] にはデフォルト値以外の値を指定します。

  8. (オプション) [入力列] には、数値を含む列を指定します。列の値を使用して、各分割に含まれるレコードを推測します。1 つの分割には小さい値が、もう 1 つの分割には大きい値が割り当てられます。

  9. (オプション) [重複を処理] を選択すると、重複する値にノイズが加わり、完全に一意の値で構成されるデータセットが作成されます。

  10. (オプション) [ランダムシード] の値を指定します。

  11. [プレビュー] を選択します。

  12. [追加] を選択します。

Stratified split

データセットを層別化分割するには、次の手順に従います。

データセットを層別化分割するには、次の手順を実行します。

  1. 分割するデータセットを含むノードの横にある [+] を選択します。

  2. [変換を追加] を選択します。

  3. [データの共有] を選択します。

  4. [変換][層別化分割] を選択します。

  5. (オプション) [分割] には、各分割の名前と比率を指定します。比率の合計は 1 になる必要があります。

  6. (オプション) [+] を選択して追加の分割を作成します。

    1. すべての分割の名前と比率を指定します。比率の合計は 1 になる必要があります。

  7. [入力列] には、最大 100 個の一意の値を含む列を指定します。Data Wrangler は、100 を超える一意の値を持つ列を階層化できません。

  8. (オプション) [エラーしきい値] にはデフォルト値以外の値を指定します。

  9. (オプション) 別のシードを指定するには、[ランダムシード] の値を指定します。

  10. [プレビュー] を選択します。

  11. [追加] を選択します。

Split by column keys

以下の手順を使用して、データセットの列キーで分割します。

データセットの列キーで分割するには、次の手順を実行します。

  1. 分割するデータセットを含むノードの横にある [+] を選択します。

  2. [変換を追加] を選択します。

  3. [データの共有] を選択します。

  4. [変換][キーで分割] を選択します。

  5. (オプション) [分割] には、各分割の名前と比率を指定します。比率の合計は 1 になる必要があります。

  6. (オプション) [+] を選択して追加の分割を作成します。

    1. すべての分割の名前と比率を指定します。比率の合計は 1 になる必要があります。

  7. [キー列] には、両方のデータセットに表示したくない値を含む列を指定します。

  8. (オプション) [エラーしきい値] にはデフォルト値以外の値を指定します。

  9. [プレビュー] を選択します。

  10. [追加] を選択します。

Parse Value as Type (値を型として解析)

この変換を使用して、列を新しい型にキャストします。サポートされている Data Wrangler のデータ型は次のとおりです。

  • Long

  • 浮動小数点数

  • ブール値

  • 日付は、日 dd-MM-yyyy、月、年をそれぞれ表す 形式で表されます。

  • 文字列

文字列を検証する

[Validate string] (文字列を検証) 変換で、テキストデータの行が指定された条件を満たしていることを示す新しい列を作成します。例えば、[Validate string] (文字列を検証) 変換を使用して、文字列に小文字のみが含まれていることを確認します。次の変換は、[Validate string] (文字列を検証) でサポートされています。

この変換グループには、次の変換が含まれています。変換がブール値を出力する場合、True1 で、False0 で表されます。

名前 機能

文字列の長さ

文字列の長さが指定された長さに等しい場合、True を返します。それ以外の場合は False を返します。

で始まる

文字列が指定されたプレフィックスで始まる場合、True を返します。それ以外の場合は False を返します。

で終わる

文字列の長さが指定された長さに等しい場合、True を返します。それ以外の場合は False を返します。

Is alphanumeric (英数字)

文字列に数字と文字のみが含まれている場合,True を返します。それ以外の場合は False を返します。

Is alpha (letters) (英字)

文字列に文字のみが含まれている場合、True を返します。それ以外の場合は False を返します。

Is digit (数字)

文字列に数字のみが含まれている場合、True を返します。それ以外の場合は False を返します。

Is space (スペース)

文字列に数字と文字のみが含まれている場合,True を返します。それ以外の場合は False を返します。

Is title (タイトル)

文字列に空白が含まれている場合、True を返します。それ以外の場合は False を返します。

Is lowercase (小文字)

文字列に小文字のみが含まれている場合、True を返します。それ以外の場合は False を返します。

Is uppercase (大文字)

文字列に大文字のみが含まれている場合、True を返します。それ以外の場合は False を返します。

Is numeric (数値)

文字列に数値のみが含まれている場合,True を返します。それ以外の場合は False を返します。

Is decimal (小数)

文字列に小数のみが含まれている場合,True を返します。それ以外の場合は False を返します。

ネスト解除JSONデータ

.csv ファイルがある場合は、データセットにJSON文字列である値がある場合があります。同様に、Parquet ファイルまたはJSONドキュメントのいずれかの列にデータをネストしている場合があります。

構造化されたフラット化演算子を使用して、最初のレベルのキーを別々の列に分割します。第 1 レベルのキーは、値内にネストされていないキーです。

例えば、各人物の属性情報をJSON文字列として保存した人物列を持つデータセットがあるとします。JSON 文字列は次のようになります。

"{"seq": 1,"name": {"first": "Nathaniel","last": "Ferguson"},"age": 59,"city": "Posbotno","state": "WV"}"

構造化されたフラット化演算子は、次の第 1 レベルのキーをデータセット内の追加の列に変換します。

  • seq

  • name

  • 年齢

  • city

  • state

Data Wrangler はキーの値を列の下の値として配置します。以下は、 の列名と値を示していますJSON。

seq, name, age, city, state 1, {"first": "Nathaniel","last": "Ferguson"}, 59, Posbotno, WV

を含むデータセット内の値ごとにJSON、構造化演算子のフラット化により、第 1 レベルのキーの列が作成されます。ネストされたキーの列を作成するには、演算子を再度呼び出します。前述の例では、演算子を呼び出すと列が作成されます。

  • name_first

  • name_last

次の例は、オペレーションを再度呼び出した結果のデータセットを示しています。

seq, name, age, city, state, name_first, name_last 1, {"first": "Nathaniel","last": "Ferguson"}, 59, Posbotno, WV, Nathaniel, Ferguson

[フラット化するキー] を選択して、個別の列として抽出する第 1 レベルのキーを指定します。キーを指定しない場合、Data Wrangler はデフォルトですべてのキーを抽出します。

配列の分解

[配列の分解] を使用して、配列の値を個別の出力行に展開します。例えば、このオペレーションでは、配列 [[1, 2, 3,], [4, 5, 6], [7, 8, 9]] の各値を取得し、次の行を含む新しい列を作成できます。

[1, 2, 3] [4, 5, 6] [7, 8, 9]

Data Wrangler は、新しい列に input_column_name_flatten という名前を付けます。

[配列の分解] オペレーションを複数回呼び出して、配列のネストされた値を個別の出力列に取得できます。次の例は、ネストされた配列を持つデータセットに対してオペレーションを複数回呼び出した結果を示しています。

ネストされた配列の値を別の列に配置する

id array id array_items id array_items_items
1 [[猫、犬]、[コウモリ、カエル]] 1 [猫、犬] 1 cat
2

[[バラ、ペチュニア]、[ユリ、デイジー]]

1 [コウモリ、カエル] 1
2 [バラ、ペチュニア] 1 bat
2 [ユリ、デイジー] 1 カエル
2 2 バラ
2 2 ペチュニア
2 2 ユリ
2 2 デイジー

画像データを変換する

Data Wrangler を使用して、機械学習 (ML) パイプラインに使用している画像をインポートして変換します。画像データを準備したら、それを Data Wrangler フローから ML パイプラインにエクスポートできます。

ここに記載されている情報を使用して、Data Wrangler での画像データのインポートと変換に慣れることができます。Data Wrangler は OpenCV を使用して画像をインポートします。サポートされている画像形式について詳しくは、「Image file reading and writing」を参照してください。

イメージデータの変換の概念を理解したら、次のチュートリアル「Amazon SageMaker Data Wrangler でイメージデータを準備する」を参照してください。

次の業界とユースケースは、変換された画像データへの機械学習の適用が役立つ例です。

  • 製造 – 組立ラインからの品目の欠陥の特定

  • 食品 – 痛んだ食品や腐った食品の識別

  • 医学 – 組織内の病変の特定

Data Wrangler で画像データを操作する場合、次のプロセスを実行します。

  1. インポート – Amazon S3 バケット内の画像が含まれるディレクトリを選択して、画像を選択します。

  2. 変換 – 組み込みの変換を使用して、機械学習パイプライン用の画像を準備します。

  3. エクスポート – 変換した画像を、パイプラインからアクセスできる場所にエクスポートします。

次の手順に従って、画像データをインポートします。

画像データをインポートするには
  1. [接続の作成] ページに移動します。

  2. [Amazon S3] を選択します。

  3. 画像データを含む Amazon S3 ファイルのパスを指定します。

  4. [ファイルタイプ][画像] を選択します。

  5. (オプション) 複数の Amazon S3 パスから画像をインポートするには、[ネストされたディレクトリをインポート] を選択します。

  6. [Import] (インポート) を選択します。

Data Wrangler は、組み込みの画像変換にオープンソースの imgaug ライブラリを使用します。以下の組み込みの変換を使用できます。

  • ResizeImage

  • EnhanceImage

  • CorruptImage

  • SplitImage

  • DropCorruptedImages

  • DropImageDuplicates

  • [Brightness]

  • ColorChannels

  • [Grayscale]

  • [Rotate]

コードを記述せずに画像を変換するには、以下の手順を使用します。

コードを書かずに画像データを変換するには
  1. Data Wrangler フローから、インポートした画像を表すノードの横にある [+] を選択します。

  2. [変換を追加] を選択します。

  3. [Add step] (ステップを追加) を選択します。

  4. 変換を選択して設定します。

  5. [プレビュー] を選択します。

  6. [追加] を選択します。

Data Wrangler が提供する変換を使用するだけでなく、独自のカスタムコードスニペットを使用することもできます。カスタムコードスニペットの使用の詳細については、「カスタム変換」を参照してください。OpenCV ライブラリと imgaug ライブラリをコードスニペットにインポートすれば、それらに関連する変換を使用できます。以下は、画像内のエッジを検出するコードスニペットの例です。

# A table with your image data is stored in the `df` variable import cv2 import numpy as np from pyspark.sql.functions import column from sagemaker_dataprep.compute.operators.transforms.image.constants import DEFAULT_IMAGE_COLUMN, IMAGE_COLUMN_TYPE from sagemaker_dataprep.compute.operators.transforms.image.decorators import BasicImageOperationDecorator, PandasUDFOperationDecorator @BasicImageOperationDecorator def my_transform(image: np.ndarray) -> np.ndarray: # To use the code snippet on your image data, modify the following lines within the function HYST_THRLD_1, HYST_THRLD_2 = 100, 200 edges = cv2.Canny(image,HYST_THRLD_1,HYST_THRLD_2) return edges @PandasUDFOperationDecorator(IMAGE_COLUMN_TYPE) def custom_image_udf(image_row): return my_transform(image_row) df = df.withColumn(DEFAULT_IMAGE_COLUMN, custom_image_udf(column(DEFAULT_IMAGE_COLUMN)))

Data Wrangler フローで変換を適用すると、Data Wrangler はデータセット内の画像のサンプルにのみ変換を適用します。アプリケーションの操作性を最適化するため、Data Wrangler は変換をすべての画像に適用するわけではありません。

すべての画像に変換を適用するには、Data Wrangler フローを Amazon S3 の場所にエクスポートします。エクスポートした画像は、トレーニング パイプラインまたは推論パイプラインで使用できます。データをエクスポートするには、デスティネーションノードまたは Jupyter Notebook を使用します。Data Wrangler フローからデータをエクスポートする場合、どちらの方法でもアクセスできます。これらの方法の使用については、「Amazon S3 へのエクスポート」を参照してください。

データのフィルタリング

Data Wrangler を使用して列内のデータをフィルターします。列内のデータをフィルターするときは、次のフィールドを指定します。

  • 列名 – データのフィルターに使用する列の名前。

  • 条件 – 列の値に適用するフィルターのタイプ。

  • – フィルターを適用する列の値またはカテゴリ。

以下でフィルターできます。

  • = – 指定した値またはカテゴリと一致する値を返します。

  • != – 指定した値またはカテゴリと一致しない値を返します。

  • >=Long または Float データの場合、指定した値以上の値をフィルターします。

  • =>Long または Float データの場合、指定した値以下の値をフィルターします。

  • >Long または Float データの場合、指定した値より大きい値をフィルターします。

  • <Long または Float データの場合、指定した値より小さい値をフィルターします。

カテゴリ male および female を含む列の場合は、male の値をすべて除外できます。また、すべての female の値をフィルターすることもできます。列には malefemale の値しかないため、フィルターは female の値のみを含む列を返します。

複数のフィルターを追加することもできます。フィルターは複数の列または同じ列に適用できます。例えば、特定の範囲内の値のみを含む列を作成する場合は、2 つの異なるフィルターを追加します。1 つのフィルターでは、列には指定した値より大きい値が必要であることを指定します。もう 1 つのフィルターでは、列には指定した値より小さい値が必要であることを指定します。

次の手順を使用して、フィルター変換をデータに追加します。

データをフィルターするには
  1. Data Wrangler フローから、フィルタリングするデータを含むノードの横にある [+] を選択します。

  2. [変換を追加] を選択します。

  3. [Add step] (ステップを追加) を選択します。

  4. [データをフィルターする] を選択します。

  5. 以下のフィールドを指定します。

    • 列名 – フィルターする列。

    • 条件 – フィルターの条件。

    • – フィルターを適用する列の値またはカテゴリ。

  6. (オプション) 作成したフィルターの後の [+] を選択します。

  7. フィルターを設定します。

  8. [プレビュー] を選択します。

  9. [追加] を選択します。

Amazon Personalize のマップ列

Data Wrangler は、アイテムの推奨事項とユーザーセグメントを生成する完全マネージド型の機械学習サービスである Amazon Personalize と統合されています。Amazon Personalize のマップ列変換を使用すると、データを Amazon Personalize が解釈できる形式に変換できます。Amazon Personalize に固有の変換の詳細については、「Amazon SageMaker Data Wrangler を使用したデータのインポート」を参照してください。Amazon Personalize の詳細については、「What is Amazon Personalize?」を参照してください。