はじめに
前回の記事では、OneLake にファイルを置くための方法を整理しました。
では、置いたファイルを Fabric の中でどのように扱うのか。ここが次の疑問になる方も多いと思います。
Fabric には、Lakehouse、Warehouse、Eventhouse など複数のデータワークロードがあります。
それぞれデータの扱い方は異なりますが、今回はその中でも OneLake と Lakehouse を組み合わせて Notebook を使うケース にフォーカスします。
Notebook という名称自体、Fabric に触れ始めた段階では馴染みがない方もいると思います。
そこで今回は、
- Notebook がどんなものなのか
- OneLake に置いたファイルが Notebook からどう"見える"のか
- Notebook を触り始めるための入口となる操作
を整理します。
Notebook を使った本格的な加工や Delta 形式での保存は、また別の記事で扱います。
1. Fabric の Notebook はどんなものか
Fabric の Notebook は、Python / PySpark を使ってデータを読み込み、整形・加工できる作業環境です。
- データ前処理
- 集計
- Delta テーブル化
- 大量データの一括処理
といった、Power BI だけでは扱いにくい領域を補います。
この記事では Notebook の詳細ではなく、
「OneLake に置いたファイルが Notebook からどう見えるか」
という最初の地点を扱います。
2. Notebook が扱うのは Lakehouse の「Files」と「Tables」
Lakehouse には、Notebook から扱える領域として Files と Tables の 2 つがあります。
前回の記事でも触れましたが、
Files は生データを保存する領域、Tables は Delta テーブルとして管理される領域です。
今回はこのうち Files 側を中心に、
Notebook からどのように見え、どう読み込めるのかを確認していきます。
Files と Tables それぞれの具体的な見え方は、
セクション 5「Notebook から見える Lakehouse の構造」で詳しく触れます。
3. Notebook で扱うために OneLake にファイルを置く
Notebook から扱うためには、ファイルを Lakehouse の Files に配置します。
配置方法の全体像は前回の記事で整理していますが、
Notebook の動作確認や小規模検証では、次の 2 つがよく使われます。
※本番運用では、Dataflow Gen2・Pipelines・Shortcuts など
自動化された取り込みが一般的です。
以下の手段は"まず触ってみる"段階の方法です。
3-1. 方法①:Lakehouse の UI からアップロード
最も手軽な方法です。
Lakehouse を開き、左側の Files から 「アップロード」 を選択するだけで配置できます。
アップロードされたファイルは、そのまま Notebook の Files にも表示されます。
3-2. 方法②:OneLake File Explorer(Windows)
OneLake File Explorer を使えば、Lakehouse の Files をローカルフォルダのように扱えます。
複数ファイルのコピーやフォルダ構造の再現など、UI よりも効率的に操作できます。
Notebook からも、この構造がそのまま見えるようになります。
4. Notebook に Lakehouse を追加する
Notebook を開いただけでは OneLake の構造は見えません。
最初に Lakehouse を Notebook に追加する必要があります。
手順
- Notebook を開く
- 左ペインから 「データ項目の追加」 をクリックし、「既存のデータ ソース」 を選ぶ
- 使用する Lakehouse を選択
左ペインに Files と Tables が表示され、Notebook が Lakehouse の構造を認識します。
ここで追加した Lakehouse が デフォルト Lakehouse として設定されます。
後述するコード内の "Files/..." のような相対パスは、
このデフォルト Lakehouse を起点として解決されます。
5. Notebook から見える Lakehouse の構造
Lakehouse を追加すると、Notebook の左側に次の 2 つが表示されます。
■ Tables(Delta テーブル)
- Delta テーブルが一覧表示される
- Notebook からは
spark.table("tablename")などの方法で読み込める
(読み込み方法の詳細は、Delta テーブルを扱う別の記事で触れます) - Notebook や Dataflow Gen2 から Delta テーブルとして保存したデータは、
指定したテーブルとしてここに表示される
■ Files(ファイル領域)
- 配置したファイルが"そのままの形式"で並ぶ
- CSV / JSON / Parquet といった構造化ファイルだけでなく
画像・PDF・その他任意の形式も置くことができる - Notebook では
"Files/xxx.csv"のようにパス指定で読み込む - Spark が構造化データとして扱えるのは CSV / JSON / Parquet / Delta などに限られる
6. Notebook で最初の読み込みを試す
例えば Files に "sales.csv" という CSV ファイルが格納されている場合、Notebook では次の 2 行で読み込み、読み込んだデータを確認することができます。
df = spark.read.csv("Files/sales.csv", header=True, inferSchema=True)
display(df)
-
"Files/sales.csv"は、デフォルト Lakehouse を起点とした相対パス
(セクション 4 で追加した Lakehouse が基準になります) -
display()は Fabric Notebook の表示機能
まずは 「置いた → Notebook で見える → 読める」 を確認するだけで十分です。
7. まとめ
- Notebook は、Lakehouse を追加することで OneLake の Files / Tables を参照して動作する
- 最初は「Files に置いたものがどう見えるか」から入るのが理解しやすい
- コード中の
"Files/..."は、デフォルト Lakehouse を起点とした相対パスである点に注意 - Power BI では難しい前処理を Notebook が補完できる
Fabric を一気に理解しようとする必要はなく、
Notebook で OneLake を覗きながら進める方が理解が早い と感じています。
Notebook を使った加工や保存については、また別の記事で触れていきたいと思います。
最後に
テンダでは、「こんなプロジェクトに挑戦したい」「こんなチームで働きたい」「理想のチームを創りたい」と願う仲間を求めています。
カジュアル面談も随時受付中です。ぜひ一度お話ししましょう![]()






