0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

OneLake に置いたデータを Notebook から扱う “最初のステップ”

0
Last updated at Posted at 2026-04-22

はじめに

前回の記事では、OneLake にファイルを置くための方法を整理しました。
では、置いたファイルを Fabric の中でどのように扱うのか。ここが次の疑問になる方も多いと思います。

Fabric には、Lakehouse、Warehouse、Eventhouse など複数のデータワークロードがあります。
それぞれデータの扱い方は異なりますが、今回はその中でも OneLake と Lakehouse を組み合わせて Notebook を使うケース にフォーカスします。

Notebook という名称自体、Fabric に触れ始めた段階では馴染みがない方もいると思います。
そこで今回は、

  • Notebook がどんなものなのか
  • OneLake に置いたファイルが Notebook からどう"見える"のか
  • Notebook を触り始めるための入口となる操作

を整理します。

image.png

Notebook を使った本格的な加工や Delta 形式での保存は、また別の記事で扱います。


1. Fabric の Notebook はどんなものか

image.png

Fabric の Notebook は、Python / PySpark を使ってデータを読み込み、整形・加工できる作業環境です。

  • データ前処理
  • 集計
  • Delta テーブル化
  • 大量データの一括処理

といった、Power BI だけでは扱いにくい領域を補います。

この記事では Notebook の詳細ではなく、
「OneLake に置いたファイルが Notebook からどう見えるか」
という最初の地点を扱います。


2. Notebook が扱うのは Lakehouse の「Files」と「Tables」

Lakehouse には、Notebook から扱える領域として FilesTables の 2 つがあります。

前回の記事でも触れましたが、
Files は生データを保存する領域、Tables は Delta テーブルとして管理される領域です。

今回はこのうち Files 側を中心に、
Notebook からどのように見え、どう読み込めるのかを確認していきます。

Files と Tables それぞれの具体的な見え方は、
セクション 5「Notebook から見える Lakehouse の構造」で詳しく触れます。


3. Notebook で扱うために OneLake にファイルを置く

Notebook から扱うためには、ファイルを Lakehouse の Files に配置します。

配置方法の全体像は前回の記事で整理していますが、
Notebook の動作確認や小規模検証では、次の 2 つがよく使われます。

※本番運用では、Dataflow Gen2・Pipelines・Shortcuts など
自動化された取り込みが一般的です。
以下の手段は"まず触ってみる"段階の方法です。


3-1. 方法①:Lakehouse の UI からアップロード

最も手軽な方法です。
Lakehouse を開き、左側の Files から 「アップロード」 を選択するだけで配置できます。

image.png

アップロードされたファイルは、そのまま Notebook の Files にも表示されます。


3-2. 方法②:OneLake File Explorer(Windows)

OneLake File Explorer を使えば、Lakehouse の Files をローカルフォルダのように扱えます。
複数ファイルのコピーやフォルダ構造の再現など、UI よりも効率的に操作できます。

image.png

Notebook からも、この構造がそのまま見えるようになります。


4. Notebook に Lakehouse を追加する

Notebook を開いただけでは OneLake の構造は見えません。
最初に Lakehouse を Notebook に追加する必要があります。

手順

  1. Notebook を開く
  2. 左ペインから 「データ項目の追加」 をクリックし、「既存のデータ ソース」 を選ぶ
  3. 使用する Lakehouse を選択

image.png

左ペインに FilesTables が表示され、Notebook が Lakehouse の構造を認識します。

ここで追加した Lakehouse が デフォルト Lakehouse として設定されます。
後述するコード内の "Files/..." のような相対パスは、
このデフォルト Lakehouse を起点として解決されます。


5. Notebook から見える Lakehouse の構造

Lakehouse を追加すると、Notebook の左側に次の 2 つが表示されます。

image.png


■ Tables(Delta テーブル)

  • Delta テーブルが一覧表示される
  • Notebook からは spark.table("tablename") などの方法で読み込める
    (読み込み方法の詳細は、Delta テーブルを扱う別の記事で触れます)
  • Notebook や Dataflow Gen2 から Delta テーブルとして保存したデータは、
    指定したテーブルとしてここに表示される

■ Files(ファイル領域)

  • 配置したファイルが"そのままの形式"で並ぶ
  • CSV / JSON / Parquet といった構造化ファイルだけでなく
    画像・PDF・その他任意の形式も置くことができる
  • Notebook では "Files/xxx.csv" のようにパス指定で読み込む
  • Spark が構造化データとして扱えるのは CSV / JSON / Parquet / Delta などに限られる

6. Notebook で最初の読み込みを試す

例えば Files に "sales.csv" という CSV ファイルが格納されている場合、Notebook では次の 2 行で読み込み、読み込んだデータを確認することができます。

df = spark.read.csv("Files/sales.csv", header=True, inferSchema=True)
display(df)
  • "Files/sales.csv" は、デフォルト Lakehouse を起点とした相対パス
    (セクション 4 で追加した Lakehouse が基準になります)
  • display() は Fabric Notebook の表示機能

image.png

まずは 「置いた → Notebook で見える → 読める」 を確認するだけで十分です。


7. まとめ

  • Notebook は、Lakehouse を追加することで OneLake の Files / Tables を参照して動作する
  • 最初は「Files に置いたものがどう見えるか」から入るのが理解しやすい
  • コード中の "Files/..." は、デフォルト Lakehouse を起点とした相対パスである点に注意
  • Power BI では難しい前処理を Notebook が補完できる

Fabric を一気に理解しようとする必要はなく、
Notebook で OneLake を覗きながら進める方が理解が早い と感じています。

Notebook を使った加工や保存については、また別の記事で触れていきたいと思います。

最後に

テンダでは、「こんなプロジェクトに挑戦したい」「こんなチームで働きたい」「理想のチームを創りたい」と願う仲間を求めています。
カジュアル面談も随時受付中です。ぜひ一度お話ししましょう:angel:

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?