データ品質のチェック方針
#
目的機械学習でデータを利用する際、十分にきれいなデータを入力した方が大抵のケースで有望です。 汚いデータも使わないよりはマシである可能性もありますが、そのようなデータは継続的に同程度の品質を持っているか検証が困難なことを認識して利用すべきでしょう。 しかし、十分にきれいなデータかどうかを保証する観点は少ないです。
この記事では、実際的な、データ品質チェックの方法論をまとめました。
#
データ品質 3 つここでは、感覚値により 3 段階のデータ品質を定義します。
品質 | 機械学習 PoC に使えるか | 機械学習プロダクトに使えるか |
---|---|---|
解釈不能 | x | x |
頑張れば使える汚さ | o | x |
きれい | o | o |
機械学習 PoC で使えるデータかどうかを検証したら、プロダクションに向けてデータ収集から設計する方が良い場合も多いです。 データ品質の安定は、意思決定の安定をもたらします。
#
解釈不能実世界の何を表しているのか不明なデータ。 寄与率が出ていても意思決定に使えないため、ゴミになることが多いです。
#
頑張れば使える汚さ直接取り込める形ではないけれど、人が頑張ってクレンジング、アノテーションが可能なデータ。 お客さんから普通にもらうデータは大抵これです。 目的変数との関係を仮説立てることができるかによって頑張る度合いが変わります。
- フリーコメント
- 別な実態が同じ値として扱われる列(同じ S サイズでも、服と靴、メーカーなど他の列に依存する)
- 同じ実態が別な値として扱われる列("S", "S" が混在する)
#
きれい直接取り込める形であり、ほとんどクレンジングを必要としないデータ。 法律が絡む伝票などはきれいなことが多いです。
- ER 図が存在する
- RDB の各種制約が守られている
- 同じ実態が同じ値として扱われ、別な実態が別な値として扱われている
#
観点リスト解釈不能なデータを使えるようにはできないですが、頑張れば使える汚さのデータの品質が安定しているかを確かめることはできます。 ここでは、データの品質が安定しているかチェックするのに利用している観点をまとめます。 TensorFlow Data Validation でも算出している観点が多いですが、BigQuery 上のデータを素早くチェックするための StandardSQL を併せて紹介します。
#
1回目以降-観点リスト#
CHECK#
合意された値域(境界値に注意)データ分析する人と、データ収集する人が違う場合、データの認識にギャップがある可能性もあります。 値域を確認しましょう。
#
論理的に納得できる値域論理的にあり得ない数値は、少数であれば精度への影響は少ないでしょうが、クレンジングできる方が好ましいでしょう。 列の利用用途から説明可能な地域であるか確認しましょう(そうでなければ意思決定に使えない)。
#
同じ実態は同じ値かカテゴリカルっぽい物は全部見てみて、同じ実態を指すデータが同じ値であるかチェックしましょう。 深層学習では Embedding により似たような空間にいってくれるので、影響は大きくないでしょうが、クレンジングできるに越したことはありません。
#
違う実態は違う値かデータだけからでは読みとれないことも多いため、ドメイン知識を持った人間と一緒にデータを確認します。 データの洗い替えなどが行われる場合には、同じコードが使いまわされたりします。 時系列で要約統計量を追っていき、変化したタイミングで突き合わせたりする必要があります。
#
DEFAULTデフォルト値を入れていると、データの分布が歪みます。 可能な限り特定して、修正します。
#
PRIMARY KEYリレーショナルデータベースをダンプした物であれば、主キーを特定しましょう。 主キーが正しく使われていると過信すると、結合の際に列が増えて大変です。
#
FOREIGN KEY可能なら外部キーも特定し、関係が正しく追えるか確認しましょう。 結合できないデータが頻発する場合には、その関係を機械学習に盛り込むのを諦めざるを得ないでしょう。
#
要約統計量#
1 percentile & 99 percentileデフォルト値や番兵用レコードなど実態を表現しないデータが現れたりします。 データの中身は全て一定品質であることを保証するため、番兵用レコードなどはクレンジング対象です。
#
その他重要な指標#
NULL 率NOT NULL に限らず、ほぼ NULL でないことを期待していることがあります。 NULL に引っ張られて、機械学習モデルの性能が落ちることもあります。
#
UNIQUE 率UNIQUE に限らず、ほぼ UNIQUE でないことを期待していることがあります。 UNIQUE が増えると、機械学習モデルの性能が落ちることもあります。
#
欠損日数毎日欠損なく入っていることが前提のデータは、落ちている日がないか確認しましょう。 落ちている日は定常データでないため、考慮が必要になることがあります。
#
FALSE 率#
0 率#
'' 率#
[]率#
{} 率#
0 未満率#
2回目以降-観点リスト#
要約統計量は大きく変化しないか統計量が変わってると、利用用途が変化した値を含有しており、予測精度の悪化に繋がります。 機械学習の学習フェーズでは検知困難、推論時に劣化が発覚するので、データチェック時に対応できるのが好ましいです。
#
平均#
分散#
標準偏差#
歪度#
尖度#
中央値#
四分位点#
最小値&最大値#
最頻値#
データクレンジング品質の観点#
可逆変換- 各要素のうちで可逆変換が施された件数と条件。
- 実業務では PARSE_DATE が多そう。
#
非可逆変換- 各要素のうちで非可逆変換が施された件数と条件。
- 実業務では IF, SAFE_CAST が多そう。
#
除去各行のうちで除去された件数と条件。
- 実業務では WHERE, JOIN に相当。
各列のうちで除去された件数と条件。
- 実業務では SELECT に相当。
#
観点チェック SQL#
CHECK#
NOT NULL#
UNIQUE#
PRIMARY KEY#
FOREIGN KEY#
要約統計量各型の SQL を以下のクエリで型変換すれば、UNION ALL できます。 具体的な実装は、bq_profile にもあります。
#
INT64, NUMERIC, FLOAT64#
BOOL#
STRING#
BYTES#
DATE#
DATETIME#
GEOGRAPHY#
TIME#
TIMESTAMP#
ARRAY#
STRUCTばらさないと計算できません。
#
まとめここまで、データの品質のチェック方針をまとめました。 データソースの信頼性に合わせて、データ品質チェックも設計する必要があります。 データソースが外にある場合には、この記事で紹介した内容を自動的に計測する仕組みがあると、データ分析の結果の劣化を防ぐことができるでしょう。