context
stringclasses
6 values
source
stringlengths
0
149
response
stringlengths
4
1.6k
instruction
stringlengths
5
137
category
stringclasses
1 value
https://qiita.com/taka_yayoi/items/1d4fbce0258e5e22dc9e
Delta Live Tablesはパイプラインにおける依存関係をサポートしています。例えば、%pip installコマンドを用いて任意のPythonパッケージをインストールすることができます。また、Delta Live Tablesはグローバルあるいはクラスタースコープのinit scriptをサポートしています。しかし、これらのパイプラインにおける外部依存関係、特にinit scriptはランタイムアップグレード時のリスクを増加させます。これらのリスクを軽減するために、パイプラインにおけるinit scriptの使用は最小限に留めてください。処理でinit scriptが必要な場合には、早い段階で問題を検知するためにパイプライ...
Delta Live Tablesでパイプラインの依存関係について教えてください。
closed_qa
https://qiita.com/taka_yayoi/items/91bb374a3bb234280f68
Databricks SQLを用いることで、すべてのサーバレスウェアハウス、pro SQLウェアハウスに含まれているドライバーにより人気のデータベースソリューションに対する読み取り専用接続を設定することができます。
Databricks SQLのクエリーフェデレーションとは?
closed_qa
https://qiita.com/taka_yayoi/items/91bb374a3bb234280f68
レイクハウスでは、データの冗長性や分断を削減するためにデータを集中して格納することを強調していますが、多くの企業においてはプロダクションのデータシステムを多数持っています。多くの理由から接続されたシステムのデータをクエリーしたいと考えるかもしれません。 アドホックのレポート。 POCの作業。 新たなETLパイプラインやレポートの開発。 インクリメンタルな移行におけるワークロードのサポート。 Databricksにいくつかのデータセットを移行したり、取り込んだりしないという選択をしつつも、隔離されたユースケースにおいて何人かのユーザーにアクセスを与える必要がある場合があります。
クエリーフェデレーションはレイクハウスのどこにフィットするのか?
closed_qa
https://qiita.com/taka_yayoi/items/91bb374a3bb234280f68
Apache Sparkは、さまざまなシステムやデータソースから得られるさまざまなフォーマットのデータに接続するサポートを常に提供しています。数多くの外部データソースとインテグレーションするためにDatabricksランタイムはこれらのオープンソースコネクター上に構築されており、追加のライブラリをバンドルしています。 多くのデータベースへの接続ではApache SparkのJDBCコネクターを使用しています。これらの接続の並列性をチューニングするために数多くのオプションを指定することができ、必要に応じてクエリーをソースシステムにプッシュダウンすることができます。 Databricksランタイム11.3以降では、PythonやR、...
Databricksにおけるクエリーフェデレーションとは?
closed_qa
https://qiita.com/taka_yayoi/items/91bb374a3bb234280f68
Databricksでは数多くのBIツールと互換性のあるJDBCやODBCドライバーを提供しています。 Delta Sharingは数多くのクライアントから接続するユーザーにDelta Lakeテーブルを共有するためのオープンソースプロトコルを提供しています。 Delta Lakeは数多くのインテグレーションを提供する完全にオープンソースなストレージプロトコルです。 Databricksは、レイクハウスのデータのクエリーをサポートするために数多くのBIとビジュアライゼーションツールとパートナーシップを結んでいます。
Databricksは他のシステムからのクエリーフェデレーションを許可するのか?
closed_qa
https://qiita.com/taka_yayoi/items/b1b0e9abd8d08c0ea539
DLTがデータエンジニアの負荷を削減し、洞察をより迅速に得られる様にする特定の方法として3つのポイントをハイライトしたいと思います。 自動化されたインフラストラクチャの管理: タスクオーケストレーション、エラーハンドリング、パフォーマンス最適化のような複雑かつ時間がかかるアクティビティを自動化することでオーバーヘッドを除去。 ストリーミングとバッチをシンプルに: 別々のパイプラインを構築する必要なしに、ストリーミングとバッチを統合し、順序を守らないデータを取り扱うためにAuto Loaderとインテグレーションし、データが到着するとすぐに利用可能に。 データ構造変更の自動ハンドリング: レコードの変更と部分的アップデートを組み合わ...
Delta Live Tablesを用いてより簡単にデータパイプラインを構築、維持するか?
closed_qa
https://qiita.com/taka_yayoi/items/2a89174102e7a095187f
インクリメンタルなデータ取り込みには、Delta Live TablesでAuto Loaderを使用することをお勧めします。Delta Live TablesはApache Sparkの構造化ストリーミングを拡張し、数行の宣言型PythonあるいはSQLを記述することで、以下の機能を持つプロダクション品質のデータパイプラインをデプロイすることができます。 コスト削減のためにオートスケーリングする計算インフラストラクチャ エクスペクテーションによるデータ品質チェック スキーマ進化の自動ハンドリング イベントログのメトリクスを通じたモニタリング
インクリメンタルなデータ取り込みにはどういう機能を使うか?
closed_qa
https://qiita.com/taka_yayoi/items/2a89174102e7a095187f
Auto Loaderは、ストリームの状態を調査するためのSQL APIを提供しています。cloud_files_state関数を用いることで、Auto Loaderのストリームによって検知されたファイルに関するメタデータを取得することができます。Auto Loaderのストリームに関連づけられたチェックポイントのロケーションを指定して、シンプルにcloud_files_stateにクエリーを行います。
Auto Loaderによって検知されたファイルへどのようなクエリーを行うか?
closed_qa
https://qiita.com/taka_yayoi/items/2a89174102e7a095187f
Apache SparkのStreaming Query Listenerインタフェースを使うことをお勧めします。 Auto Loaderはそれぞれのバッチにおいて、Streaming Query Listenerにメトリクスをレポートします。ストリーミングクエリーの進捗ダッシュボードのRaw Dataタブの下のnumFilesOutstandingとnumBytesOutstandingメトリクスでバックログにどれだけのファイルが存在するのか、バックログがどれだけ大きいのかを確認することができます。
ストリームアップデートのリッスンをどのように行うか?
closed_qa
https://qiita.com/taka_yayoi/items/2a89174102e7a095187f
Auto Loaderを実行する際、コストの主要因となるのは計算資源とファイル検知のコストになるでしょう。
Auto Loaderを実行する際のコストの主要要素は何?
closed_qa
https://qiita.com/taka_yayoi/items/2a89174102e7a095187f
計算コストを削減するためには、低レーテンシーの要件がない限り、連続的に稼働させるのではなく、Trigger.AvailableNow(Databricksランタイム10.1以降)やTrigger.Onceを用いたバッチジョブとしてAuto LoaderをスケジュールするためにDatabricksジョブを使用することをお勧めします。 ファイル検知は、ディレクトリ一覧モードでお使いのストレージアカウントに対するLISTオペレーションの実行、サブスクリプションサービスに対するAPIリクエスト、ファイル通知モードのキューサービスによってコストを発生させることがあります。以下のことをお勧めします。 ディレクトリ一覧モードでAuto Loa...
Auto Loaderの計算コストをどのように削減するか?
closed_qa
https://qiita.com/taka_yayoi/items/2a89174102e7a095187f
Trigger.AvailableNowを用いることで、バッチジョブとしてDatabricksジョブの中でAuto Loaderを実行する様にスケジュールすることができます。AvailableNowトリガーは、クエリー開始時間の前に到着したすべてのファイルを処理する様にAuto Loaderに指示します。ストリームが起動した後にアップロードされた新規ファイルは次のトリガーまで無視されます。
Auto Loaderをスケジュールする時にTrigger.AvailableNowを設定すると何かできるか?
closed_qa
https://qiita.com/taka_yayoi/items/2a89174102e7a095187f
Trigger.AvailableNowを用いることで、データ処理とは非同期にファイル検知が行われ、レート制限を用いた複数のマイクロバッチでデータを処理することができます。デフォルトではAuto Loaderはマイクロバッチごとに最大1000ファイルを処理します。マイクロバッチでどれだけのファイル数やバイト数を処理すべきかを設定するために、cloudFiles.maxFilesPerTriggerやcloudFiles.maxBytesPerTriggerを設定することができます。ファイルの制限はハードリミットですが、バイトの制限はソフトリミットであり、指定されたmaxBytesPerTriggerよりも多いバイト数が処理される場合...
Auto Loaderで複数のマイクロバッチでデータを処理することができるか?
closed_qa
https://qiita.com/taka_yayoi/items/2a89174102e7a095187f
Auto Loaderは確実に一度(exactly-once)の取り込みの保証をするために、RocksDBを用いたチェックポイントの場所に検知したファイルの履歴を保持します。ボリュームの大きいデータセットにおいては、ストレージコストとAuto Loader起動時間を削減するために、チェックポイントの場所からイベントを廃棄するためにcloudFiles.maxFileAgeオプションを使用することができます。cloudFiles.maxFileAgeに設定できる最小値は"14 days"です。RocksDBにおける削除はトゥームストーンのエントリーとして表示されるので、安定する前にイベントが廃棄されるので、一時的にストレージの利用量が...
Auto Loaderは確実に一度(exactly-once)の取り込みの保証をすることができるか?
closed_qa
https://qiita.com/maroon-db/items/b07c98a7020ba46b6889
コードをフォーマットするにはノートブックのCan Edit権限が必要となります。 以下の方法で、フォーマッターを起動することができます。 単一セルのフォーマット キーボードショートカット:Cmd+Shift+Fを押します。 コマンドコンテキストメニュー SQLセルのフォーマット:SQLセルのコマンドコンテキストドロップダウンメニューのFormat SQLを選択します。このメニュー項目はSQLノートブックセルか%sql言語マジックを持つセルでのみ表示されます。 Pythonセルのフォーマット:PythonセルのコマンドコンテキストドロップダウンメニューのFormat Pythonを選択します。このメニュー項目はPythonノート...
PythonとSQLのセルをどの様にフォーマットするのか
closed_qa
https://qiita.com/maroon-db/items/b07c98a7020ba46b6889
ノートブック内のコードをフォーマットするためにBlackを使用します。 Blackは4スペースのインデントに対してPEP 8を強制します。インデントの設定はできません。 SQL UDFの中に埋め込まれたPython文字列のフォーマットはサポートされていません。同様に、Python UDF内のSQL文字列のフォーマットもサポートされていません。
Pythonセルのフォーマットの制限を教えてください。
closed_qa
https://qiita.com/maroon-db/items/b07c98a7020ba46b6889
DatabricksではRuntime環境をカスタマイズして保存しておくことができます。これがDatabricks Container Serviceとなります。Databricksのクラスターインスタンス上ではDocker Containerが動作するため、それを予め作成しておくことで起動時に読み込む事ができます。
毎回のクラスター起動時に大量のライブラリーなどをインストールしていては起動時間が遅くなってしまっているので、改善方法を教えてください。
closed_qa
https://qiita.com/maroon-db/items/b07c98a7020ba46b6889
コンテナのベース イメージは、https://hub.docker.com/u/databricksruntime の Docker Hub でホストされています。 これらのベースの生成に使用される Dockerfile は https://github.com/databricks/containers にありますのでベースの中身が知りたい方はご確認ください。
コンテナのベース イメージはどこにホストされていますか?
closed_qa
https://qiita.com/taka_yayoi/items/dede9b8d25d7fcd153c4
Databricksユニット(DBU)はプラットフォームにおけるコンサンプションの内部単位です。SQLウェアハウスを除き(SQLウェアハウスは基本的にクラスターのグループであり、DBUのレートはウェアハウスを構成するクラスターのDBUレートの合計となります)、消費されるDBUの量は、それぞれのクラスターのノードの数と内部のVMのインスタンスタイプの計算能力に基づくものとなります。
DBUとは?
closed_qa
https://qiita.com/taka_yayoi/items/dede9b8d25d7fcd153c4
クラスターポリシーを用いることで、管理者は新規クラスターを作成する際に利用できる設定をコントロールすることができ、これらのポリシーを個別のユーザーやユーザーグループに割り当てることができます。デフォルトでは、すべてのユーザーにはワークスペースにおける「制限なしのクラスター作成」権限が付与されています。これは、割り当てられたポリシーの範囲外で制限なしにクラスターを作成できてしまい、管理されないままコストを垂れ流すことになるので滅多なことで使うべきではありません。
クラスターポリシーとは?
closed_qa
https://qiita.com/taka_yayoi/items/b1a870e26064f8f3f4f6
Photonは、低コストで超高速クエリーパフォーマンスを提供するDatabricksレイクハウスプラットフォームの次世代エンジンです。
Photonは?
closed_qa
https://qiita.com/taka_yayoi/items/0833aaad871c3d7e4af6
Bloomフィルターは、偽陽性の確率を用いてセットにキーがあるかどうか、セットにアイテムが あるかもしれない ことを教えてくれます。インデックスで使用すると、Bloomフィルターは他のテクニックでは高速化できない様なフィールドに対して「藁山から針を探す」ようなクエリーの高速化に役立ちます。
Bloomフィルターは何?
closed_qa
https://qiita.com/taka_yayoi/items/76c6fe647d334d9650b6
Bloomフィルターは、定義された偽陽性の確率(FPP)を用いて、確実にファイルにデータが無い、あるいは、おそらくファイルにあるということを宣言することでオペレーションを行います。 DatabricksではファイルレベルのBloomフィルター、それぞれのデータファイルには、関連づけられた単一のBloomフィルターインデックスファイルが割り当てられます。ファイルを読み込む前に、Databricksはインデックスファイルをチェックし、インデックスによってファイルがデータフィルターにマッチするかもしれないということが示された場合にのみファイルが読み込まれます。インデックスが存在しない、あるいはクエリーされたカラムにBloomフィルターが...
Bloomフィルターインデックスの動作原理は何?
closed_qa
https://qiita.com/taka_yayoi/items/541681049c58f308f27c
Apache Kafkaは、オープンソースのイベントバスです。Kafkaは、特定の期間でメッセージがバッファされる、追記のみのイベントの分散ログであるトピックの概念を使用しています。
Apache Kafkaは何?
closed_qa
https://qiita.com/taka_yayoi/items/541681049c58f308f27c
データフローパイプラインにおいては、Delta Live Tablesとそれらの依存関係は標準的なSQLのCreate Table As Select (CTAS)文とDLTのキーワードliveで宣言することができます。 PythonでDLTを開発する際には、Delta Liveテーブルを作成するために@dlt.tableデコレーターを使用します。パイプラインのデータ品質を保証するために、DLTは不正なレコードを持つパイプラインの挙動を定義するシンプルなSQLの制約であるエクスペクテーションを使用します。 ストリーミングワークロードは、多くの場合予期できないデータボリュームを伴うので、Databricksでは、不要なインフラスト...
ストリーミングデータパイプラインはどのように作成するか?
closed_qa
https://qiita.com/taka_yayoi/items/541681049c58f308f27c
はい、Pythonで記述されたDelta Live Tableは、Spark構造化ストリーミングを用いることでKafkaのようなイベントバスから直接データを取り込むことができます。コンプライアンスの問題を回避し、コストを削減するためにKafkaのトピックの保持期間を短くすることで、Deltaが提供する安価かつ弾力性のあるガバナンスの効いたストレージのメリットを享受することができます。
Delta Live Tableはストリーミングエンジンから直接取り込むことができるか?
closed_qa
https://qiita.com/taka_yayoi/items/541681049c58f308f27c
複数のノートブックからDLTパイプラインを構成することができますが、一つのDLTノートブックは、全体がSQLかPythonで記述される必要があります(単一のノートブックでセルごとに異なる言語を記述できるDatabricksノートブックとは異なります)。 このため、SQLが好みであるならば、PythonのノートブックでApache Kafkaからデータ取り込みのコーディングを行い、別のSQLノートブックでデータパイプラインの変換ロジックを記述することになります。
DLTパイプラインにおけるSQLとPythonの混在は問題ありますか?
closed_qa
https://qiita.com/taka_yayoi/items/541681049c58f308f27c
いいえ、Spark構造化ストリーミングでは一度のみの処理を保障するために障害復旧のためにチェックポイントが必要となりますが、DLTは手動の設定や明示的なチェックポイントを必要とすることなしに、自動で状態をハンドリングします。
DLTでチェックポイントを設定することが必要でしょうか?
closed_qa
https://qiita.com/taka_yayoi/items/541681049c58f308f27c
Databricksワークスペースでは、クラウドベンダー固有のオブジェクトストアは、クラウドに依存しないフォルダーとしてDatabricksファイルシステム(DBFS)にマッピングされます。データがオフロードされたら、Databricksのオートローダーでファイルを取り込むことができます。
中間クラウドオブジェクトストレージを用いたストリーミング取り込みをどのように実施するか?
closed_qa
https://qiita.com/taka_yayoi/items/8d894b32df663cdc0eb4
Databricks on Google Cloudは、皆様の分析、AIワークロードの全てを統合するためにデータウェアハウスとデータレイクの良いところを組み合わせたシンプルかつオープンなレイクハウスプラットフォームに皆様のすべてのデータを格納することができる共同開発のサービスです。Google Kubernetes Engine (GKE)で動作し、Google Cloud Platform (GCP)上でホストされており、Google CloudのID、Google Cloud Storage、BigQuery、その他のGoogle Cloudのテクノロジーとのビルトインのインテグレーションを提供します。このプラットフォームによっ...
Databricks on Google Cloudは何?
closed_qa
https://qiita.com/taka_yayoi/items/8d894b32df663cdc0eb4
企業のお客様は、GCP環境に自分のデプロイメントを行える機能である顧客管理仮想プライベートクラウド(VPC)を使い始めるべきです。顧客管理VPCを用いることで、マネージドプラットフォームの使いやすさとデフォルトでセキュアなデプロイメントを組み合わせるデータとAIに対するPlatform-as-a-Serviceアプローチを提供しながらも、数多くの社内外のセキュリティポリシーとフレームワークに準拠することができます。
GCP環境に自分のネットワークを持ち込みたいですが、どの様にセットアップするのでしょうか?
closed_qa
https://qiita.com/taka_yayoi/items/66eab423e193546c5097
様々なデータソースからのストリーミングデータは、レイクハウスに取り込まれる前にメッセージバスやオブジェクトストレージにステージングされます。ステージングエリアからのデータは、レイクハウスにデータを書き込むApache Sparkの構造化ストリーミング(SS)によって処理されます。
Delta Lakeへのストリーミングデータのハイレベルのデータ取り込みフロー
closed_qa
https://qiita.com/taka_yayoi/items/66eab423e193546c5097
Auto Loaderを使えます。Auto Loaderはクラウドオブジェクトストレージに新規ファイルが到着するとインクリメンタルに処理を行い、ユーザーはカスタムアプリケーションを開発する必要がないので、ストリーミングデータの取り込みをシンプルなものにします。内部状態を保持することで、これまでに処理したファイルを追跡します。処理に失敗した場合には、最後に処理したファイルからスタートするためにこの状態情報を使用します。さらに、データを再実行、再処理する必要がある場合には、ディレクトリ内の既存ファイルを処理するオプションを提供します。
オブジェクトストアからのデータ取り込みにはどういう機能を使えますか?
closed_qa
https://qiita.com/taka_yayoi/items/66eab423e193546c5097
Auto Loaderのメリットには以下の様なものがあります。 数十億のファイルを処理できる能力 計算リソースの最適利用を用いた非同期バックフィル パフォーマンスを改善するための最適化ディレクトリ一覧 スキーマの推定とスキーマドリフトへの対応 自動ファイル通知サービスを活用することによるコスト効率の高いファイル通知
Auto Loaderのメリットはどのようなものですか?
closed_qa
https://qiita.com/taka_yayoi/items/66eab423e193546c5097
Auto Loaderは新規ファイルを検知するための2つのモードがあります。ファイル通知とディレクトリ一覧です。 ファイル通知: Auto Loaderは入力ディレクトリからのイベントをサブスクライブする通知、キューサービスを自動でセットアップすることができます。ファイル通知モードは高性能であり、大量のファイルを格納する入力ディレクトリにスケールすることもできますが、追加のクラウドのアクセス権が必要となります。このオプションは、ファイルが語順に到着しない場合には好適なものとなり、キューや通知の明示的なセットアップを不要のものにします。このモードを有効化するには、オプションcloudFiles.useNotificationsをtr...
Auto Loaderはどの様に動作しますか?
closed_qa
https://qiita.com/taka_yayoi/items/a1f70f51b594350f30bf
Databricksのローシャッフルマージは、修正されていない行と修正された行を一緒に処理するのではなく、より整流化された別の処理モードで変更されていない行を処理することで優れたパフォーマンスを提供します。これによって、シャッフルされるデータの量が劇的に削減され、パフォーマンスの改善につながります。また、ローシャッフルマージはMERGEオペレーションを実行した後にユーザーがOPTIMIZE ZORDER BYコマンドを再実行する必要性も削減します。
Databricksのローシャッフルマージはどのような機能ですか?
closed_qa
https://qiita.com/taka_yayoi/items/91c4afd8416df0fc47a9
ソースデータセットのディープコピー、シャローコピーを作成するために、Databricksでテーブルをクローンすることができます。 コストベースのオプティマイザは、テーブルの統計情報を活用することで、クエリーパフォーマンスを高速にします。 最適化書き込みと自動ファイルコンパクションを用いることでDeltaテーブルを自動で最適化することができます。これは特に長時間処理を行う構造化ストリーミングジョブでは有用です。 高階関数は、一般的なSparkオペレーターを持たない多くのオペレーションに対して、ビルトインかつ最適化されたパフォーマンスを提供します。高階関数はユーザー定義関数よりも高いパフォーマンスのメリットを提供します。 Databri...
パフォーマンス強化のためのDatabricksの推奨事項は何?
closed_qa
https://qiita.com/taka_yayoi/items/3b19d88d89d7b052cde8
PythonでMLflowトラッキングを使い始める最も簡単な方法は、MLflowのautolog() APIを使うことです。それぞれのトレーニングランにおいて記録するメトリクスを制御したい、あるいは、テーブルやプロットの様な追加のアーティファクトを記録したい場合には、このノートブックで説明されている様にmlflow.log_metric()やmlflow.log_artifact() APIを使うことができます。
モデルのトレーニングを記録するためにどのようにMLflow logging APIを使うか?
closed_qa
https://qiita.com/taka_yayoi/items/3b19d88d89d7b052cde8
機械学習モデルを作成する際に、mlflow.log_param()、mlflow.log_metric()、mlflow.log_model()、mlflow.log_artifact()を用いて、モデル、モデルのパラメーター、評価メトリクス、その他のアーティファクトを記録します。これらの機能によって、どのパラメーター、メトリクスを記録するのかを正確に制御することができ、テーブルやプロットの様なランの他のアーティファクトを記録することもできます。
モデルのトレーニングをどのように記録するか?
closed_qa
https://qiita.com/taka_yayoi/items/3b19d88d89d7b052cde8
mlflow.sklearn.autolog()を用いて、パラメーター、メトリクス、モデル自身を記録します。
MLflowのオートロギングでは何が自動的に記録されるか?
closed_qa
https://qiita.com/taka_yayoi/items/f3eb72e5a52c6ef1a297
H3は同名のグローバルインデクシングシステムとライブラリとなります。もともとは、空間データパターンを可視化、探索する目的においてUberによって開発されました。グリッドシステムは、表面(この場合は地球の表面)のモザイクを形成するために長方形や三角形の様なシェイプをしようします。階層型グリッドシステムは、異なる解像度でモザイクを形成します(基本的なシェイプは異なるサイズで提供されます)。H3システムは、六角形(一部五角形)を使用する様に設計され、そして階層型システムとして異なる16の解像度を操作することができます。特定の解像度でデータをインデクシングすると、分析に使用する1つ以上のH3のセルIDが生成されます。例えば、解像度15のH3...
H3とは何?
closed_qa
https://qiita.com/taka_yayoi/items/f3eb72e5a52c6ef1a297
H3システムを用いることで、膨大な量のデータを理解できる様になります。例えば、大規模なNYCのタクシー乗降データセットを用いることで、空間的なパターンをより理解するためにデータを空間的に集計することができます。10億以上のオーバーラップするデータを見たとしても、パターンを特定することはできませんが、H3を活用することで即座にパターンが明らかになり、さらならる探索に取り組める様になります。
なぜH3を使うのか?
closed_qa
https://qiita.com/taka_yayoi/items/2a5beabd82fc4aaf2aea
エントリーポイントは時系列データフレーム(TSDF)のオブジェクトとなります。タイムスタンプのカラムは必須となります。パーティション、シーケンスカラムはオプションですが、自動特徴量生成を含むさまざまなユースケースで役立ちます。TSDFを用いることで、いくつかのネイティブな機能を活用できる様になります。 Asof join - ソーステーブルの最新のレコードをselectし、ベースのファクトテーブルにマージするためにウィンドウを使用します。 移動平均 - Approximate Exponential Moving AverageとSimple Moving Averageを利用できます。 再サンプリング - 頻度に基づくアップサン...
Tempoは何をするのか?
closed_qa
https://qiita.com/taka_yayoi/items/2a5beabd82fc4aaf2aea
データフレームとタイムスタンプのカラム、オプションで1つ以上のパーティションカラム、シーケンスカラムを指定する必要があることがわかります。タイムスタンプカラムはソートに使用されます。オプションのパーティションカラムやシーケンスカラムは特徴量生成に使用されます。タイムスタンプカラムは文字列である必要がありますが、パーティションカラムは文字列あるいは文字列のリストである必要があります。 TSDFをDeltaテーブルに書き込む際には、write関数を呼び出してTDSFとSparkのコンテキスト、Deltaテーブル名と最適化のためのカラム(あれば)を指定します。これによって内部でDeltaテーブルに書き込みが行われます。
Tempoはどの様に動作するのか?
closed_qa
https://qiita.com/taka_yayoi/items/406b639a9dcd43dbcc54
DBFSルートはワークスペースの全てのユーザーがアクセスできるので、ここに格納されたデータには全てのユーザーがアクセスできます。センシティブなデータを格納する際にこのロケーションを使わないようにユーザーに指示することが重要となります。
DBFSルートに格納したデータは誰かアクセスできるか?
closed_qa
https://qiita.com/taka_yayoi/items/21a8b99665e1b8ffe1ca
DatabricksのUIからアップロードされたデータやライブラリは、デフォルトでは/Filestoreに格納されます。また、生成されたプロットもこのディレクトリに格納されます。
Filestoreディレクトリには何が格納されるのか?
closed_qa
https://qiita.com/taka_yayoi/items/21a8b99665e1b8ffe1ca
Databricksは、このディレクトリで数多くのオープンソースのデータセットを提供しています。Databricksが提供するチュートリアル、デモの多くはこれらのデータセットを参照していますが、皆様ご自身でDatabricksの機能を探索するために活用することもできます。
databricks-datasetsディレクトリには何が格納されるのか?
closed_qa
https://qiita.com/taka_yayoi/items/21a8b99665e1b8ffe1ca
databricks-resultsには、クエリーの完全な結果をダウンロードすることで生成されるファイルが格納されます。
databricks-resultsディレクトリには何が格納されるのか?
closed_qa
https://qiita.com/taka_yayoi/items/21a8b99665e1b8ffe1ca
このディレクトリにはグローバルinitスクリプトが格納されます。
'/databricks/init'ディレクトリには何が格納されるのか?
closed_qa
https://qiita.com/taka_yayoi/items/21a8b99665e1b8ffe1ca
デフォルトでは、hive_metastoreのマネージドテーブルがこのディレクトリに格納されます。
'/user/hive/warehouse'ディレクトリには何が格納されるのか?
closed_qa
https://qiita.com/taka_yayoi/items/45bfc7ac322571acadf5
Databricksにおけるルートパスは、実行されるコードによって異なります。 DBFSルートはSparkとDBFSコマンドのルートパスとなります。これには以下が含まれます。 Spark SQL Sparkデータフレーム dbutils.fs %fs ドライバーにアタッチされるブロックストレージボリュームは、ローカルで実行されるコードのルートパスとなります。
Databricksのルートパスとは何か?
closed_qa
https://qiita.com/taka_yayoi/items/45bfc7ac322571acadf5
以下では、DatabricksランタイムのFUSEにおけるローカルファイルAPI使用時の制限を列挙します。 クライアントサイド暗号化が有効化されたAmazon S3マウントをサポートしていません。 ランダムの書き込みはサポートしていません。ランダムの書き込みが必要となるワークロードにおいては、以下のようにローカルディスクでオペレーションを行い、/dbfsに結果をコピーするようにしてください。
ローカルファイルAPIの制限は何?
closed_qa
https://qiita.com/taka_yayoi/items/f15b50469b368907ec3b
DBFSは、クラウドオブジェクトストレージのURIを相対パスにマッピングすることで以下のようなメリットを提供します。 クラウド固有のAPIコマンドではなく、ディレクトリとファイルのセマンティクスを用いてオブジェクトストレージを操作できるようになります。 ストレージの資格情報をDatabricksワークスペースのパスにマッピングできるように、クラウドオブジェクトストレージのロケーションをマウントできるようになります。 オブジェクトストレージにファイルを永続化するプロセスをシンプルにし、クラスター停止時に、安全に仮想マシンとアタッチされたボリュームを削除できるようになります。 クラスター初期化のためのinitスクリプト、JAR、ライブ...
DBFSで何ができるか?
closed_qa
https://qiita.com/taka_yayoi/items/8b574a83d6538eba0605
HorovodRunnerは、Horovodフレームワークを用いたDatabricks上で分散ディープラーニングワークロードを実行するための汎用APIです。
HorovodRunnerは何?
closed_qa
https://qiita.com/taka_yayoi/items/8b574a83d6538eba0605
HorovodRunnerによるディープラーニングの分散トレーニングが可能です。HorovodRunnerを用いることで、HorovodトレーニングジョブをSparkジョブとして起動することができます。
分散ディープラーニングに何を使えばいいですか?
closed_qa
https://qiita.com/taka_yayoi/items/8b574a83d6538eba0605
HorovodRunnerを用いた分散トレーニングプログラムを開発する一般的なアプローチは以下の通りとなります。 ノードの数を用いて初期化されたHorovodRunnerインスタンスを作成します。 Horovod usageで説明されている方法に従って、Horovodのトレーニングメソッドを定義し、メソッド内にimport文を追加するようにします。 HorovodRunnerインスタンスにトレーニングメソッドを引き渡します。
HorovodRunnerを用いた分散トレーニングプログラムの開発流れを教えてください。
closed_qa
https://qiita.com/taka_yayoi/items/d52518874318343aab04
ダウンロードサイトからライセンス条項に基づいて無料でダウンロード、使用することができます。Hugging Faceは、AIコミュニティがセマンティックサーチと呼ぶもので理想的な(大規模あるいはそれ以外の)言語モデルを見つけ出すのに人気の場所です。
どこで事前学習済みでオープンソースのLLMを見つけられるのでしょうか?
closed_qa
https://qiita.com/taka_yayoi/items/d52518874318343aab04
エンベディングとは文章、段落、文書の数値表現です。これらがどのよう精製されるのかに関するメカニズムはモデルの中に埋め込まれていますが、理解すべき重要なことはモデルが2つの文書をエンベディングに変換する際、数値間の数学的な距離(違い)はそれらの類似度を伝えてくれることになります。
エンベディングとはなんでしょうか?
closed_qa
https://qiita.com/taka_yayoi/items/d52518874318343aab04
オープンソースのlangchainのようなツールは、このためのビルディングブロックを提供します。理解すべきことは、検索したいと考えている商品カタログの詳細を形成するエンベディングは、従来型のリレーショナルデータベースやNoSQLデータストアからは検索できないということです。代わりに特殊なベクトルストアを活用する必要があります。
エンベディングとモデルはどのように組み合わされるのでしょうか?
closed_qa
https://qiita.com/taka_yayoi/items/d52518874318343aab04
マイクロサービスは検索フレーズのようなリクエストを受け取り、レスポンスを返す軽量アプリケーションです。モデルとマイクロサービス内で検索するエンベディングをパッケージすることで、提供する検索機能を多くのアプリケーションからアクセスできるようにするだけではなく、多くのマイクロサービスインフラストラクチャソリューションは弾力性のあるスケーラビリティを提供しているので、需要の増減に追従できるようにサービスにリソースを割り当てることができます。
マイクロサービスとはなんでしょうか?
closed_qa
https://kb.databricks.com/en_US/all-articles
Anaconda の利用規約を確認し、商用ライセンスが必要かどうかを判断してください。 有効なライセンスがあることを確認したら、Conda でパッケージをインストールまたは更新するためのチャネルを指定する必要があります。-c <name-of-channel>で Conda チャネルを指定できます。 たとえば、%conda install matplotlib ではエラーを返しますが、%conda install -c defaults matplotlib はmatplotlibをインストールできます。
Anaconda からパッケージをインストールしようとすると、Conda は PackagesNotFoundError でパッケージのダウンロードに失敗しました。どうすればいいですか?
closed_qa
https://kb.databricks.com/en_US/all-articles
アーティファクト ストアから別のストレージの場所にアーティファクトをコピーするには、MLflow クライアントでclient.download_artifacts を使用する必要があります。
MLflow からローカル ストレージにアーティファクトをダウンロードする方法を教えてください。
closed_qa
https://kb.databricks.com/en_US/all-articles
通常、SparkML のモデルは、パイプラインの最終ステージとして適合します。ツリー モデルを使用してパイプラインから関連する特徴量情報を抽出するには、正しいパイプライン ステージを抽出する必要があります。VectorAssemblerオブジェクトから特徴量の名前を抽出できます。 パイプラインの最終ステージでクロス バリデーターを使用して、ツリーベースのモデルをチューニングすることもできます。CrossValidatorオブジェクトからbestModelを抽出し、デシジョン ツリーを視覚化し、特徴量の重要度レベルを出力することができます。 Display機能は、決定木モデルのみを視覚化することができます。
デシジョン ツリー、ランダム フォレスト、勾配ブースティング ツリーなどのツリーベースのモデルを適合させる場合、特徴の重要度レベルと特徴の名前を確認できると便利です。ツリーベースの Apache SparkML パイプライン モデルの特徴量情報をどのように抽出するか?
closed_qa
https://kb.databricks.com/en_US/all-articles
多くの場合、SparkML モデルまたはパイプラインをフィッティングする際のエラーは、トレーニング データの問題が原因です。 以下を確認して問題を解決します。 データセット内の NULL 値を識別して対処します。Spark は、データセット内の欠損値に対処する方法を知る必要があります。 dropna() を使用して値が欠落している行を破棄します。 ゼロまたは列の平均値などの値を代入します。この解決策は、データ セットにとって何が意味を持つかによって異なります。 すべてのトレーニング データが適切に数値形式に変換されていることを確認します。Spark は、カテゴリ変数と文字列変数の処理方法を知る必要があります。データ固有のケースに対処...
SparkML モデルまたはパイプラインをフィッティングするときに出た“Job aborted due to stage failure”エラーの解決方法を教えてください。
closed_qa
https://kb.databricks.com/en_US/all-articles
Databricks を使用して SparkML のクロス検証のパフォーマンスを向上させる方法について説明します。
交差検証を高速化する方法を知りたいです。
closed_qa
https://kb.databricks.com/en_US/all-articles
このエラーは、Databricks クラスターで使用されている Apache Spark のバージョンと互換性のない Sparkling Water パッケージのバージョンを使用しようとすると発生します。 Sparkling Water のダウンロードページから正しいバージョンの Sparkling Water をダウンロードしていることを確認してください。 デフォルトでは、ダウンロード ページは Sparkling Water の最新バージョンを提供します。それでも問題が解決しない場合は、Spark のバージョンと互換性のある以前のバージョンの Sparkling Water にロールバックしてみてください。 それでも Spark...
H2O.ai Sparkling Water クラスターに到達できないエラーの解決方法を教えてください。
closed_qa
https://kb.databricks.com/en_US/all-articles
scikit-learn はグループK フォールド交差検証をサポートし、フォールドが明確で重複していないことを確保します。 Spark では、scikit-learn モデルのチューニングを並列チューニングするspark-sklearnライブラリを使用して、この方法を利用できます。この例では、scikit-learnランダム フォレスト モデルを、Spark でgrp変数を使用してグループ k 分割法でチューニングします。
Apache Spark でグループ K 分割交差検証をどのように実行するか?
closed_qa
https://kb.databricks.com/en_US/all-articles
ノートブックのOneHotEncoderEstimator参照をOneHotEncoderに置き換える必要があります。OneHotEncoderEstimator は、 Apache Spark 3.0 でOneHotEncoderに名前が変更されました。
'OneHotEncoderEstimator'をインポートできないエラーをどのように解決するか?
closed_qa
https://kb.databricks.com/en_US/all-articles
これは、SparkSessionオブジェクトが Hive サポートなしで MLflow プロジェクト内に作成された場合に発生します。セッション ビルダーで.enableHiveSupport()オプションを使用してSparkSessionを構成することで解決します。
MLflow プロジェクトが Apache Hive テーブルにアクセスできないエラーがありました。どうしたらいいですか?
closed_qa
https://kb.databricks.com/en_US/all-articles
Anaconda の利用規約を確認し、商用ライセンスが必要かどうかを判断してください。 有効なライセンスがあることを確認したら、Conda でパッケージをインストールまたは更新するためのチャネルを指定する必要があります。-c <name-of-channel>で Conda チャネルを指定できます。 たとえば、%conda install matplotlib ではエラーを返しますが、%conda install -c defaults matplotlib はmatplotlibをインストールできます。
Anaconda からパッケージをインストールしようとすると、Conda は PackagesNotFoundError でパッケージのダウンロードに失敗しました。どうすればいいですか?
closed_qa
https://kb.databricks.com/en_US/all-articles
アーティファクト ストアから別のストレージの場所にアーティファクトをコピーするには、MLflow クライアントでclient.download_artifacts を使用する必要があります。
MLflow からローカル ストレージにアーティファクトをダウンロードする方法を教えてください。
closed_qa
https://kb.databricks.com/en_US/all-articles
通常、SparkML のモデルは、パイプラインの最終ステージとして適合します。ツリー モデルを使用してパイプラインから関連する特徴量情報を抽出するには、正しいパイプライン ステージを抽出する必要があります。VectorAssemblerオブジェクトから特徴量の名前を抽出できます。 パイプラインの最終ステージでクロス バリデーターを使用して、ツリーベースのモデルをチューニングすることもできます。CrossValidatorオブジェクトからbestModelを抽出し、デシジョン ツリーを視覚化し、特徴量の重要度レベルを出力することができます。 Display機能は、決定木モデルのみを視覚化することができます。
デシジョン ツリー、ランダム フォレスト、勾配ブースティング ツリーなどのツリーベースのモデルを適合させる場合、特徴の重要度レベルと特徴の名前を確認できると便利です。ツリーベースの Apache SparkML パイプライン モデルの特徴量情報をどのように抽出するか?
closed_qa
https://kb.databricks.com/en_US/all-articles
多くの場合、SparkML モデルまたはパイプラインをフィッティングする際のエラーは、トレーニング データの問題が原因です。 以下を確認して問題を解決します。 データセット内の NULL 値を識別して対処します。Spark は、データセット内の欠損値に対処する方法を知る必要があります。 dropna() を使用して値が欠落している行を破棄します。 ゼロまたは列の平均値などの値を代入します。この解決策は、データ セットにとって何が意味を持つかによって異なります。 すべてのトレーニング データが適切に数値形式に変換されていることを確認します。Spark は、カテゴリ変数と文字列変数の処理方法を知る必要があります。データ固有のケースに対処...
SparkML モデルまたはパイプラインをフィッティングするときに出た“Job aborted due to stage failure”エラーの解決方法を教えてください。
closed_qa
https://kb.databricks.com/en_US/all-articles
Databricks を使用して SparkML のクロス検証のパフォーマンスを向上させる方法について説明します。
交差検証を高速化する方法を知りたいです。
closed_qa
https://kb.databricks.com/en_US/all-articles
このエラーは、Databricks クラスターで使用されている Apache Spark のバージョンと互換性のない Sparkling Water パッケージのバージョンを使用しようとすると発生します。 Sparkling Water のダウンロードページから正しいバージョンの Sparkling Water をダウンロードしていることを確認してください。 デフォルトでは、ダウンロード ページは Sparkling Water の最新バージョンを提供します。それでも問題が解決しない場合は、Spark のバージョンと互換性のある以前のバージョンの Sparkling Water にロールバックしてみてください。 それでも Spark...
H2O.ai Sparkling Water クラスターに到達できないエラーの解決方法を教えてください。
closed_qa
https://kb.databricks.com/en_US/all-articles
scikit-learn はグループK フォールド交差検証をサポートし、フォールドが明確で重複していないことを確保します。 Spark では、scikit-learn モデルのチューニングを並列チューニングするspark-sklearnライブラリを使用して、この方法を利用できます。この例では、scikit-learnランダム フォレスト モデルを、Spark でgrp変数を使用してグループ k 分割法でチューニングします。
Apache Spark でグループ K 分割交差検証をどのように実行するか?
closed_qa
https://kb.databricks.com/en_US/all-articles
ノートブックのOneHotEncoderEstimator参照をOneHotEncoderに置き換える必要があります。OneHotEncoderEstimator は、 Apache Spark 3.0 でOneHotEncoderに名前が変更されました。
'OneHotEncoderEstimator'をインポートできないエラーをどのように解決するか?
closed_qa
https://kb.databricks.com/en_US/all-articles
これは、SparkSessionオブジェクトが Hive サポートなしで MLflow プロジェクト内に作成された場合に発生します。セッション ビルダーで.enableHiveSupport()オプションを使用してSparkSessionを構成することで解決します。
MLflow プロジェクトが Apache Hive テーブルにアクセスできないエラーがありました。どうしたらいいですか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/13/generative-aishengchengaishidainoxiaomaiye
Generative AIとは、文章や画像、音楽など、一見独創的で新しい創造物を生み出すことができる技術です。これらのAIは、すでに行われたことを繰り返すだけではありません。大量の事例をもとに学習させたモデルは、人間がどのようにコンテンツを作り上げるかという基本的なパターンを学習し、これまで人間の創造性の表現として理解されてきたような、見たこともない、観察したこともないような構成に到達します。しかし、どの単語が次に続くかを判断したり、画像に様式化されたフィルタを適用したりするような過去の単純なAIとは異なり、これらのAIは、生成されている作品群の幅広い文脈を理解する能力を備えているため、形成されたコンテンツは人間の解釈者にとってはる...
Generative AI(生成AI)とは?
closed_qa
https://www.databricks.com/jp/blog/2023/04/13/generative-aishengchengaishidainoxiaomaiye
生成AIは非常に有望であり、企業はこれを試験的に導入する必要があります。一般的な知識の検索、視点の開発、ある種の情報の分析など、さまざまな能力を備えています。しかし、生成モデルには、商用利用が可能になる前に解決しなければならないいくつかの弱点があります。 正確でなくても、権威あるように聞こえます。同じトピックについて対照的な意見を述べるようLLMに求めると、LLMはそれを実行し、どちらにも自信を持っているように聞こえるでしょう。LLMは首尾一貫した文章を作成することができますが、より広い文脈を理解し、それを考慮した文章を作成することにはまだ苦労しています。LLMは訓練された情報に基づいてしか回答を生成できないため、訓練データ以外の...
Generative AIはプライムタイムの準備ができたか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/13/generative-aishengchengaishidainoxiaomaiye
ChatGPTの知識ベースと同様にリストは無限大ですが、ここでは、小売業者がGenerative AIに投資すると聞いている、または期待している主要なカテゴリをいくつか紹介します: 1. パーソナライズされたマーケティング: すべての顧客はユニークです。生成AIを活用することで、顧客体験を向上させ、買い物客に関連する商品をメールやオンラインで消費者に個別メッセージとして提供することができます。 2. バーチャル試着室。Generative AIは、買い物客の興味と利用可能な商品にマッチしたカスタム画像を生成するために使用することができます。買い物客は、自分の写真に、カタログから利用可能な商品を生成モデルでレンダリングすることがで...
Generative AIの人気のある使い方は何でしょうか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/13/generative-aishengchengaishidainoxiaomaiye
Dollyの目的は、オープンソースの大規模言語モデル(LLM)を使って、高品質の学習データを使ってChatGPTのような命令追跡機能を持たせることができるという、生成AIの親しみやすさを示すことにあります。 Dollyでは、数年前からあるオープンソースのLLMを、比較的小さなDatabricksクラスタで、比較的小さな(そして確実にアクセスできる)量のデータでトレーニングできることを証明することができたのです。このデモのポイントは、組織がこの技術にどのようにアプローチするかという選択肢があること、そしてこの機能を得るために外部に依存する必要がないことを示すことでした。 しかし、Dollyの基盤となっているテクノロジーは、独自の命...
Databricksは、Generative AIに対しどのような位置づけなのでしょうか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/13/generative-aishengchengaishidainoxiaomaiye
LLMやGenerative AIテクノロジーは、ビジネスの運営や価値創造のあり方を大きく変える可能性を秘めています。しかし、まだ道半ばです。小売業にとって重要なのは、この新しいテクノロジーの波に対して、今すぐビジネスを準備することです。小売業は、次のようにしてそれを行うことができます: 1. AI戦略の策定 - ビジネス全体と整合性のある明確なAI戦略を持つことが重要になります。小売企業は、顧客体験の向上、サプライチェーンと在庫管理の改善、製品イノベーションの推進にAIをどのように活用できるかを概説し、自動化と意思決定のための新しいユースケースを模索する必要があります。 2. データインフラへの投資 - 今後、生成型AIを利用...
この新しいテクノロジーを活用するために、どのような準備をすればいいのでしょうか。
closed_qa
https://www.databricks.com/jp/blog/2023/04/12/synthetic-data-better-machine-learning.html
まず、誰もがより多くのデータを求めています。それは、より良い機械学習モデルを意味する(こともあるからです)。機械学習は現実の世界をモデル化するので、より多くのデータがあれば、その世界の全体像を把握することができます。角のあるケースで何が起こるのか、何が異常なのか、何が繰り返し観察されるのか。本物のデータは入手困難ですが、本物そっくりのデータを無限に入手するのは簡単です。 しかし、合成データは、実際に存在するデータを模倣することしかできない。合成データは、実際のデータを模倣するだけであり、実際のデータセットにはない新たな機微を明らかにすることはできない。しかし、実際のデータが意味することを外挿することは可能であり、場合によっては有益...
なぜ機械学習に合成データなのか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/04/the-lakehouse-for-manufacturing
その理由はいくつかあります:1. レガシーテクノロジー(オンプレミスやクラウドのデータウェアハウス)は、接続された製品やオペレーションから得られる大量のデータに対して、あまりにも複雑でコストが高い。2. 散発的なバッチ駆動のデータとアナリティクスは、リアルタイムの洞察とアクションを妨げ、重要なオペレーションの意思決定に大きな影響を及ぼしています。3. 構造化データと非構造化データのフォーマットとアーキテクチャが分かれており、顧客、業務、資産に関する見解がバラバラである。4. イノベーションをよりコストと時間のかかるものにする、断片的なツーリング
製造業におけるデータプロジェクトの70%以上が概念実証(PoC)の段階で停滞し、持続的な価値の実現に至っていません。なぜこのようなことが起こるか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/04/the-lakehouse-for-manufacturing
はい、Lakehouse for Manufacturingの上に構築されたDatabricksとパートナーのエコシステムは、業界で最も一般的で価値の高いユースケースに取り組む組織を支援するパッケージソリューションアクセラレータを提供しています。人気のアクセラレータは以下の通りです。1. デジタルツインズ: 実世界のデータをリアルタイムで処理し、大規模に洞察を計算し、データ駆動型の意思決定のために複数の下流アプリケーションに配信します。2. 部品レベルの予測: 在庫切れを防ぎ、リードタイムを短縮し、売上を最大化するために、総量レベルではなく、部品レベルで需要予測を行う。3. 設備全体の有効性: さまざまな形式のセンサー/IoTデバイ...
Databricksの製造業向けソリューションアクセラレータはありますか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/03/saving-mothers-ml-how-mlops-improves-healthcare-high-risk-obstetrics.html
MLOps Stacksとはコードデプロイパターンを活用しており、モデルのアーティファクトではなくトレーニングのコードをstagingやproductionへ昇格させます。(デプロイコードとデプロイモデルの比較についてはBig Book of MLOpsで詳しく知ることができます。)これは、機械学習モデルの本番移行のためのInfrastructure-as-Code (IaC)やCI/CDを構築するためのcookiecutterテンプレートを提供しています。cookiecutterのプロンプトを介して、DatabricksワークスペースURL、Azureストレージアカウント名などのAzure Databricksの環境値についてテン...
MLOps Stacksとは?
closed_qa
https://www.databricks.com/jp/blog/2023/03/24/hello-dolly-democratizing-magic-chatgpt-open-models.html
Dollyは、EleutherAIの既存のオープンソース 60 億パラメータモデルを、Alpaca のデータを用いて、元のモデルにはないブレインストーミングやテキスト生成などの指示に従う機能を引き出すために、ほんの少し修正することで動作します。 Dolly の基礎となるモデルは、GPT-3 の1750 億個のパラメータに対して60 億個しかなく、しかも 2 年前のものであるため、これほどうまく機能するのは特に驚くべきことです。このことは、ChatGPT のような最先端のモデルの質的向上の多くが、より大きく、よりよくチューニングされた基本モデルではなく、指導に従ったトレーニングデータの集中コーパスのおかげである可能性を示唆しています...
Dollyとは
closed_qa
https://www.databricks.com/jp/blog/2023/03/24/hello-dolly-democratizing-magic-chatgpt-open-models.html
企業が、API の背後にある独自のモデルを提供する集中型 LLM プロバイダにデータを送るのではなく、独自のモデルを構築することを好む理由はたくさんあります。多くの企業にとって、AI から恩恵を受ける可能性が最も高い問題やデータセットは、最も秘密性の高い独自の知的財産であり、それを第三者に渡すことは好ましくないかもしれません。さらに、モデルの品質、コスト、望ましい動作など、組織によってトレードオフが異なる場合もあります。私たちは、ほとんどの ML ユーザーがモデルを直接所有することが、長期的に最も良い結果をもたらすと信じています。 Databricks で Dolly を自作するために使用できる簡単な Databricksノートブ...
なぜオープンモデルなのか?
closed_qa
https://www.databricks.com/jp/blog/2023/03/20/fine-tuning-large-language-models-hugging-face-and-deepspeed.html
T5 (Text-to-Text Transfer Transformer)は、Googleが提供する汎用LLMのファミリーです。要約、分類、翻訳など多くのタスクに役立ち、「小さい」(~60Mパラメータ)からかなり大きい(~11Bパラメータ)ものまで、いくつかのサイズが用意されている。これらのサイズは、ますます強力になる一方で、扱うにはますます高価になっています。これらのLLMを扱う際の重要なテーマは、「シンプルに保つ」ことです。小さいモデルで十分であれば、それを使用し、可能であれば既製のリソースで始める。大きなモデルを使った推論には時間とコストがかかるので、レイテンシーや予算の制約から、最初から大きなモデルは使えないかもしれません...
T5 (Text-to-Text Transfer Transformer)は何ですか?
closed_qa
https://www.databricks.com/jp/blog/2023/03/20/fine-tuning-large-language-models-hugging-face-and-deepspeed.html
ファインチューニングとは、あらかじめ訓練されたモデルを新しいデータでさらに訓練し、ある特定のタスクの性能を向上させることを意味します。T5のようなモデルは、ある単語列を別の単語に変換するような多くのことを行うように訓練されています。ここで、T5が得意とするのは、多くの商品レビューをレビュー要約に変換することです。これはT5が得意とする要約作業のようなもので、手元にある実際のレビューデータによりよく合うように要約を調整することを望んでいるだけです。これは、T5アーキテクチャをゼロからトレーニングするのとは違います。時間がかかるだけでなく、事前に訓練されたT5モデルが持っている言語に関する学習がすべて失われてしまうからです。 上記の例...
学習済みモデルのファインチューニングとは?
closed_qa
https://www.databricks.com/jp/blog/2023/03/20/fine-tuning-large-language-models-hugging-face-and-deepspeed.html
MicrosoftのDeepSpeedは、洗練された最適化を多数実装することで、既存の深層学習トレーニングや推論ジョブをほとんど変更することなく高速化することができます。特に興味深いのは、メモリ使用量を減らそうとする最適化セットであるZeROです。詳細や論文については、DeepSpeedのサイトを参照してください。DeepSpeedは、Hugging FaceのTrainer APIを使用するFine-Tuningジョブを自動的に最適化することができ、既存のFine-Tuningスクリプトを実行するためのドロップイン代替スクリプトを提供しています。これは、既製のトレーニングスクリプトを再利用することが有利である理由の1つです。
DeepSpeedとは?
closed_qa
https://www.databricks.com/jp/blog/2023/03/11/explore-databricks-lakehouse.html
レイクハウスはこれまでのデータプラットフォームの課題を解決するために、データウェアハウスとデータレイクの長所を組み合わせた新たなデータプラットフォームである。以下の図に示しているように、レイクハウスではテーブルなどの構造化データ、ログやJSONのような半構造化データ、さらには、画像・音声・テキストのような非構造化データすべてを格納することができ、データウェアハウスを活用して行われていたBIや、データレイクの主なユースケースであるデータサイエンスや機械学習の取り組みなどをすべて一つのプラットフォームで実施することできる。 レイクハウスにおいては、データをオープンなデータレイクに格納することでデータの種類やサイズを問わずそのままの状態...
レイクハウスとは?
closed_qa
https://www.databricks.com/jp/blog/2023/03/10/databricks-lakehouse-collaboration.html
これまでは、購買履歴、CRMデータなどの構造化データをデータウェアハウスで集計、加工し、BIダッシュボードに表示することでビジネスの意思決定に役立てるというのが、データ活用の主なユースケースであった。しかし、競争優位性を高めるために、過去にのみ目を向けるのではなく、データとAIを活用することで将来を見通そうというニーズが高まっている。 このため、購買履歴やCRMのような構造化データだけではなく、Webサイトの利用履歴、ソーシャルメディアへの投稿、電話の通話記録などの半構造化データ、非構造化データにも着目し、これらのデータに機械学習・人工知能を適用することで、これまでとは比較にならないビジネス価値を生み出すことをゴールとして多くの企...
データ×AIプロジェクトとは?
closed_qa
https://www.databricks.com/jp/blog/2023/03/01/cybersecurity-manufacturing.html
メーカーによる運用技術のサイバーセキュリティへの投資は、従来情報技術への投資に比べ遅れていました。しかし ITとOTの融合を考えるとそんな事を言ってられません。つまりメーカーはサイバーセキュリティを総合的に考える必要があるのです。 技術面では、OTのサイバーセキュリティはITのサイバーセキュリティとは異なり、ICSやSCADA機器にEDR(Endpoint Detection and Response)エージェントをインストールすることは、なかなか難しいか実現不可能です。そのため、ICSやSCADAシステムのセキュリティは、通常これらのシステムを行き来するネットワークトラフィックの監視のみに依存しています。膨大なネットワークデータ...
サイバーセキュリティはなぜ難しいのか?
closed_qa
https://www.databricks.com/jp/blog/2023/02/06/getting-started-nlp-using-hugging-face-transformers-pipelines.html
UDFのパフォーマンスチューニングには、2つのポイントがあります。1つ目は、各GPUを効率よく使いたいということで、これはTransformersパイプラインによってGPUに送られるアイテムのバッチサイズを変更することで調整することができます。もう1つは、データフレームをうまく分割してクラスタ全体を活用することです。
UDFのパフォーマンスチューニングのポイントは何?
closed_qa
https://www.databricks.com/jp/blog/2023/01/26/shixilieyuceraifurari-prophet-spark-tonolianxie.html
Prophetは、時系列予測のためのオープンソースライブラリです。Facebook 社の Core Data Science チームが開発・リリースしており、年毎、週毎、日毎の周期性に加え、休日の影響などを考慮して非線形な傾向を持つ時系列データをシンプルにモデル化できるという特長があります。さらに、異常値や欠損データの扱いにも強く、また、人間が理解しやすいパラメタやドメイン知識などを加えることで、モデルの精度を向上させる機能も備えています。
Prophetとは?
closed_qa
https://www.databricks.com/jp/blog/2022/12/28/community-editionteshimerudatabricks.html
Community Editionでは、Databricksのフルバージョンの機能に対して以下の制限があります。 1. 作成できるクラスターは15GB RAM, 2 Core CPUのシングルノードのみ 2. ワークスペースに追加できるユーザー数は最大3名まで 3. クラスターのリージョンはus-westのみ 使用できない機能 1. ジョブのスケジュール機能 2. クラスターのオートスケーリング機能 3. Git連携 4. MLflowの一部モデル管理機能(レジストリ、RESTサービング) 5. REST APIによるワークスペースの制御 5. セキュリティ、ロールベースのアクセス制御、監査、シ...
Community Editionの機能と制限について教えてください。
closed_qa
https://www.databricks.com/jp/blog/2022/12/28/community-editionteshimerudatabricks.html
使用期間の制限はありません。そのため、Databricks機能の使用感の確認や、Databricksのトレーニング教材を実行していただく環境として広くご利用いただけます。例えば、以下の機能・環境がCommunity Edition上で利用することができます。 1. Databricks Workspace/Notebook環境(共同編集・コラボレーション機能) 2. Spark (Databricks Runtime版) 3. Delta Lake (Databricks版) 4. MLflow(モデルトラッキング機能) 5. Koalas(SparkのPandas API) 6. MLlib(Sparkネイテ...
Community Editionの使用期間の制限はありますか?
closed_qa
https://www.databricks.com/jp/blog/2022/12/12/announcing-general-availability-data-lineage-unity-catalog.html
1. 自動化されたリアルタイムのリネージ:Unity Catalog は、あらゆる言語(Python、SQL、R、Scala)、実行モード(バッチ、ストリーミング)で実行されたクエリのデータフロー図を自動的に取得し、リアルタイムに表示します。リアルタイムのリネージにより、データフローの証跡を手動で作成する運用上のオーバーヘッドを削減します。Unity Catalog メタストアに接続されたすべてのワークスペースにおいて、データリネージは自動的に集約されます。これは、あるワークスペースで取得したリネージを、同じメタストアを共有する他のワークスペースで見ることができることを意味します。 2. 統一されたカラムとテーブルの系統グラフ:U...
Unity Catalog でのデータリネージの主な機能は何か?
closed_qa