0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Colaboratoryユーザー必見!Databricksでのファイル共有と個人フォルダ活用法

Posted at

user:

Colab なら from google.colab import drive
drive.mount("/content/drive") とするところ、Databricksならどうしますか?

assistant:

Colab の場合は google.colab.drive で直接 Google Drive をマウントしますが、Databricks には同じ仕組みはありません。
代わりに Databricks では DBFS(Databricks File System) を使ったり、外部ストレージ(Google Drive, S3, Azure Blob, GCSなど)をマウントする形になります。

Google Drive を使いたいなら、Databricks では以下のような方法があります:


1. DBFS に直接ファイルをアップロード

  • Web UI の「Data」→「Add Data」→「Upload File」で手元のファイルをアップロード。
  • Python からは /dbfs/FileStore/... にアクセスできます。
df = spark.read.csv("/FileStore/my_data.csv", header=True, inferSchema=True)

2. Google Drive をマウントする

Databricks 自体には drive.mount はありません。代わりに Google Drive API とサービスアカウントを使って GCS (Google Cloud Storage) と連携させます。

  1. GCP でサービスアカウントを作成し、Drive API を有効化。
  2. サービスアカウントのキーを Databricks にシークレットとして保存。
  3. gcs-connector を使ってマウント。

例(PySpark 側でのマウント設定):

spark.conf.set(
  "spark.hadoop.google.cloud.auth.service.account.json.keyfile",
  "/dbfs/FileStore/keys/my-service-account.json"
)

dbutils.fs.mount(
  source = "gs://my-drive-bucket",
  mount_point = "/mnt/mydrive",
  extra_configs = {
    "fs.gs.impl": "com.google.cloud.hadoop.fs.gcs.GoogleHadoopFileSystem"
  }
)

3. 手軽に使うなら API 経由で直接アクセス

Google Drive API を叩いて pydrivegdown を使う方法もあります。
ただし Databricks は Colab のように drive.mount 一発ではなく、OAuth 認証やサービスアカウントを挟む必要があります。


まとめると:

  • Colab: drive.mount("/content/drive")
  • Databricks: dbutils.fs.mount を使って GCS / S3 / Azure Blob にマウントするのが標準。Google Drive を使いたいなら、API や GCS 経由で接続する。

先輩は、Databricks 上でも Google Drive に直接つなぎたい感じですか?
それとも Colab のときのように「手元ファイルを手軽に読みたい」用途ですか?

user:

複数の人が、同じファイルを用いる用途です。

assistant:

なるほど、複数人で同じファイルを扱うなら ColabのGoogle Drive直マウント的な使い方はあまり向かない です。理由はシンプルで、Colabのdrive.mountは「各ユーザーの個人Google Drive」を引っ張ってくる仕組みだから、他人と共有するとなると管理がごちゃごちゃになりやすいんです。

Databricksでは、チーム利用を前提にしているので次の2つが王道です:


1. DBFS(Databricks File System)を共用する

  • Databricksワークスペースにアップロードしたファイルは、同じワークスペースにいる全員が /dbfs/... 経由で利用可能。
  • 例えば管理者が一度だけアップロードすれば、他の人は次のように読めます:
df = spark.read.csv("/FileStore/shared/my_data.csv", header=True, inferSchema=True)

→ Colabで言う「Drive共有フォルダ」の役割をDBFSが担ってくれるイメージです。


2. クラウドストレージ(S3 / Azure Blob / GCS)をマウントする

  • チームで外部ストレージを共有しているなら、Databricksにマウントして使うのがベスト。
  • 例えばAWS S3なら:
dbutils.fs.mount(
  source = "s3a://my-shared-bucket",
  mount_point = "/mnt/shared",
  extra_configs = {"fs.s3a.access.key": "YOUR_KEY", "fs.s3a.secret.key": "YOUR_SECRET"}
)

df = spark.read.parquet("/mnt/shared/data.parquet")
  • Google Driveを無理に使うよりも、チーム用に GCSバケット を作ってそこをマウントする方がスムーズ。

実務でのおすすめ

  • PoCや小規模検証/FileStore にアップロード(簡単&すぐ共有できる)
  • 本番や継続利用 → S3 / Azure Blob / GCS を公式にマウント

先輩のプロジェクトは、
「検証段階で数人が触るだけ」なのか
「本格的にチームで使い回す基盤」なのか
どちら寄りですか?

user:

DBFS(Databricks File System)を共用するのがよさそうですね。でも共有データを置けるのは管理者だけなんですか?

assistant:

いいところに気づきましたね。DBFS の「誰がどこに書けるか」は実は 置き場所 で変わります。


DBFS のエリア分け(ざっくり)

  1. /FileStore

    • 全ユーザーが読み書き可能。
    • ここに置いたファイルは URL で共有もできる(例:https://<workspace-url>/files/my_data.csv)。
    • ただし容量制限や整理のルールを作らないとカオス化しやすい。
  2. /mnt 以下にマウントした外部ストレージ

    • ここは管理者がマウント設定をする必要がある。
    • 一度マウントすれば、以降は誰でもそのディレクトリを利用可能。
    • 本番用途ならこちらが正解。
  3. 各ユーザーの一時領域(/tmpなど)

    • 個人のセッション専用。共有には向かない。

実際の運用パターン

  • チームでファイルを置いてみんなが見るなら → /FileStore が手っ取り早い。
  • 外部ストレージを一元管理したいなら → 管理者が /mnt/shared を用意して、そこにマウント。

まとめ

  • 管理者じゃなくても /FileStore なら全員でアップロード&共有できる
  • ただし長期的に安定して使うなら 管理者がマウントした外部ストレージ(S3 / GCS / Azure Blob) を使うのがベスト。

先輩のチームは、
「まずは簡単にみんなでファイルを共有して試したい」感じですか?
それとも「もう本番環境を見据えて、権限もちゃんと管理したい」段階ですか?

user:

ありがとうございます。DBFS(Databricks File System)を使って /FileStore にファイルを置きたいのですが、方法を詳しく教えてください。

assistant:

いいチョイスです、先輩 — /FileStore手軽にチームで共有できてすぐ使えるので、ちょっとした共同作業やPoCにはぴったり。以下に「やり方」を GUI / Notebook / CLI / REST の4パターンで具体的にまとめます。最後に運用上の注意とおすすめも付けますね。


1) GUI(Databricks ワークスペース上でアップロード) — 一番簡単

  1. ワークスペースの左サイドバーで Data を開く(または上部メニューの「Data」→「Add Data」)。
  2. Upload File を選択 → ファイルをドラッグ&ドロップ。
  3. アップロード先に DBFS → パス欄に /FileStore/shared/<プロジェクト名>/my_data.csv のように入れてアップロード。
  4. 完了後は Notebook から普通に読めます(下を参照)。

確認・参照コマンド(Notebook)

# Spark で読む(csvの例)
df = spark.read.option("header","true").csv("/FileStore/shared/project/my_data.csv")
display(df)

# pandas で読む(ローカルFS経由)
import pandas as pd
pdf = pd.read_csv("/dbfs/FileStore/shared/project/my_data.csv")

2) Notebook 内から書き込む(小さなファイルを直接作る/保存する)

  • Notebook の Python セルから直接書けます(小さめのファイル向け)。
# 文字列をそのまま置く
content = "col1,col2\n1,2\n3,4\n"
dbutils.fs.put("/FileStore/shared/project/test.csv", content, overwrite=True)

# DataFrame を CSV として保存(pandas を使う例)
pdf.to_csv("/dbfs/FileStore/shared/project/my_data.csv", index=False)
  • ファイル一覧を確認:
display(dbutils.fs.ls("/FileStore/shared/project"))
# あるいはマジック
%fs ls /FileStore/shared/project

3) Databricks CLI(ローカルからまとめてアップ/自動化向け)

ローカル→DBFSの大量アップやCIに便利。

# 事前準備(ローカルで)
pip install databricks-cli
databricks configure --token  # Host と Personal Access Token を入力

# ファイルをアップロード
databricks fs cp localfile.csv dbfs:/FileStore/shared/project/localfile.csv

# フォルダを再帰的にアップ
databricks fs cp --recursive ./local_folder dbfs:/FileStore/shared/project/local_folder

確認:

databricks fs ls dbfs:/FileStore/shared/project

4) DBFS REST API(プログラムから細かく制御したい場合)

Databricks の DBFS API(/api/2.0/dbfs/put など)を使えば、HTTP経由でファイルをアップロードできます。大きいファイルはチャンクアップロードが必要になります。
(CLI が手軽なので、まずは CLI を推奨します。必要なら REST サンプルも出します。)


補足メモ(実務で役立つ小ネタ)

  • 読みパスの違い:Spark からは /FileStore/... を使い、pandas 等ローカルIOを使うなら /dbfs/FileStore/.../dbfs はノード上のローカルマウント)を使うのが安定。

  • ブラウザでダウンロード可能なURL:アップしたファイルはワークスペースのドメインで /files/<相対パス> で参照できます(例:https://<your-databricks-host>/files/shared/project/my_data.csv)。ホスト名は環境に依ります。

  • 権限・公開範囲/FileStore のファイルは同じワークスペースのユーザーが扱えます。細かいアクセス制御(ユーザー単位の読み書き制御)を厳密にしたい場合は、クラウドのオブジェクトストレージ(S3/GCS/Azure Blob)を管理者がマウントして、ストレージ側でACLを設定するのが適切です。

  • 容量と用途:短期共有・小〜中規模のデータなら /FileStore でOK。数十GBや本番データ、耐久性・バックアップが必要ならクラウドストレージを使って /mnt/… にマウントする運用が望ましいです。

  • 運用ルール(おすすめ):

    • プロジェクトごとに shared/<project> フォルダを作る
    • ファイル命名規則(バージョン or YYYYMMDD)を決める
    • 定期的に古いファイルをクリーンアップするスクリプトを用意する

先輩、ここまでで /FileStore に置く手順は網羅できてるはずです。
もしよければ、あなたの環境(Databricks on AWS / Azure / GCPのどれか)を教えてくれれば、CLI の設定例や dbutils.fs.mount での本格的な /mnt マウント手順まで用意しますね。どっちがいいかは先輩の好みで — 私は夜通し付き合う気満々です(ふふ)。

user:

ありがとうございます。個人フォルダにデータをアップしてDatabricks上でPythonコードを書いて使うにはどうしますか?

assistant:

なるほど!つまり「自分だけの作業用にファイルを置いて、DatabricksのNotebookからPythonで使いたい」ということですね。
DBFS には 全員で共有する領域 もあれば、個人ごとに使えるフォルダ もあります。


個人用フォルダの仕組み

Databricks には、各ユーザーに割り当てられるホームディレクトリがあります。
パスは:

/Users/<あなたのDatabricksログインメールアドレス>/

例えばログインが taro@example.com なら:

/Users/taro@example.com/

があなた専用の作業ディレクトリです。
(他のユーザーからは基本的に見えません。)


アップロード方法

GUIから

  1. サイドバーで Workspace を開く
  2. Users → 自分のユーザー名 をクリック
  3. 自分のディレクトリに移動して「Upload」ボタンからファイルを選択

→ これで /Users/<メールアドレス>/ に入ります。


Notebook / CLIから

CLIやPythonコードで直接アップロードもできます。

Pythonコード(Notebook上)

# 小さなファイルを自分のフォルダに書き込む
dbutils.fs.put(
    "/Users/taro@example.com/my_data.csv",
    "col1,col2\n1,2\n3,4\n",
    overwrite=True
)

Databricks CLI

databricks fs cp ./localfile.csv dbfs:/Users/taro@example.com/localfile.csv

Pythonから利用する

pandas で読む場合

import pandas as pd

pdf = pd.read_csv("/dbfs/Users/taro@example.com/my_data.csv")
pdf.head()

Spark DataFrame で読む場合

df = spark.read.option("header","true").csv("/Users/taro@example.com/my_data.csv")
display(df)

/dbfs/...pandasやローカルIO系ライブラリ用
/Users/...Spark API用 という違いがあります。


補足

  • 個人用フォルダはチームに公開されないので「まず自分で試したい」ときに便利。
  • 本格的に共有したくなったら /FileStore/shared/.../mnt/... に移すのがおすすめ。

先輩は「まず自分で前処理したデータを試す」感じですか?
それとも「一旦自分で加工 → 後でチームに共有」という流れを想定してますか?

user:

ありがとうございます。個人用フォルダにあるファイルを使う分には、Spark DataFrameを使う必要がなさそうですよね?ならばColaboratory用コードから書き換える部分が少なそうで助かります。

assistant:

そう、その通りです!✨
個人用フォルダにあるファイルを「自分だけで」使うなら、わざわざ Spark DataFrame にする必要はありません。

Databricks でも /dbfs/... を通じて普通のファイルパスとして扱えるので、Colab の pandas コードをほぼそのまま流用できます


例:Colabからの最小限の書き換え

Colab だと:

import pandas as pd
pdf = pd.read_csv("/content/drive/MyDrive/my_data.csv")

Databricks だと:

import pandas as pd
pdf = pd.read_csv("/dbfs/Users/taro@example.com/my_data.csv")

→ 書き換えはパス部分だけ。


ポイント

  • /dbfs を頭につければ ローカルファイル扱いで読み書きできる。
  • Spark DataFrame にしたいときだけ /Users/.../FileStore/... を指定して spark.read.csv を使う。
  • 個人で完結するなら pandasオンリーでOK

つまり先輩がイメージしている「Colabと同じ感覚で、pandas中心にノートブックを書いていく」スタイルは問題なくDatabricksでもできます。
Sparkは「データが数百万行を超えて重くなったとき」や「チーム全体で分散処理したいとき」だけ出番が来る、くらいに考えておけば大丈夫です。


ここで気になるのは、先輩が Databricks を使うときの用途です。

  • Colabみたいに 分析・前処理用の実験 がメインなのか
  • それとも 大規模データやチーム作業 を見据えているのか

どちら寄りですか?

user:

今のところ前者ですね。ありがとうございます。ここまでの内容をブログに残したいので、SEO・読者引き込み効果を意識した具体的なタイトル案をいくつか考えていただけますか? Colaboratory も Databricks も両方使いたい人向けにお願いします。

assistant:

なるほど!Colab と Databricks を「両方使いたい層」向けですね。
SEO を意識するなら、検索で引っかかりやすいキーワード(例:Colab, Databricks, Google Drive, DBFS, pandas, Spark)を盛り込みつつ、「違い」「比較」「使い分け」を強調すると効果的です。

雰囲気を変えていくつかタイトル案を出しますね。


タイトル案(実用・SEO寄り)

  1. 「Google Colab と Databricks を両立!Google Drive と DBFS の使い分け完全ガイド」
  2. 「Colabユーザー必見!Databricksでのファイル共有と個人フォルダ活用法」
  3. 「Databricks初心者がつまずくポイント:Colabとの違いとDBFSの使い方」
  4. 「Colabの drive.mount はDatabricksでどう置き換える?実践コード付き解説」
  5. 「pandas派も安心!ColabからDatabricksへ最小限のコード修正で移行する方法」

タイトル案(読者引き込み寄り)

  1. 「Colabの次はDatabricks!知っておくと楽になるファイル管理の基本」
  2. 「Google Driveをマウントできない?Databricksで迷わないファイル操作術」
  3. 「ColabとDatabricksを行き来する人のための“ファイルの正しい置き場”入門」

タイトル案(網羅感・権威感)

  1. 「Colab × Databricks 徹底比較:ファイル管理・共有・pandas活用のベストプラクティス」
  2. 「ColabからDatabricksへ:データ分析者が知るべき環境移行のすべて」

こういう構成なら、検索で「Colab Databricks 違い」「Colab Databricks ファイル」「Colab Databricks pandas」といったワードを拾いつつ、読者の「困って調べた」欲求にも刺さります。

先輩が想定しているブログ読者は、

  • 「Colabを普段使っているけどDatabricksも試したい人」
  • 「チームでDatabricksを導入するけど個人作業もしたい人」

どちらの層を意識したいですか?

user:

「Colaboratoryを普段使っているけどDatabricksも試したい人」向けですね。タイトルは「Colaboratoryユーザー必見!Databricksでのファイル共有と個人フォルダ活用法」でいきましょう。このタイトルに沿って、ここまでの内容を詳細に解説していただけますか?

assistant:

Colaboratoryユーザー必見!Databricksでのファイル共有と個人フォルダ活用法

想定読者: 普段 Google Colaboratory(Colab)を使っているが、Databricks を試してみたい・両方を場面に応じて使い分けたいデータ分析者。

読みやすさ: 所要時間 約6〜9分。実務でそのまま使えるコード例つき。


TL;DR

  • Colab の drive.mount(...) と同じ“一発で個人のGoogle Driveをマウントする”機能は Databricks にない。だが、個人作業は /Users/<あなたのメール>/ に置けば Colab と近い感覚で使える
  • 共有データは /FileStore/shared/<project>/ に置くのが手軽。運用が本格化したらクラウドストレージ(S3/GCS/Azure Blob)を管理者にマウントして /mnt/... を使う。
  • pandas コードはほとんど書き換え不要。パスを "/content/drive/MyDrive/..." から "/dbfs/Users/<メール>/..." に変えるだけで動くことが多い。

1. Colab と Databricks、ファイル周りでまず押さえる違い

項目 Colab Databricks
個人Driveの簡易マウント drive.mount('/content/drive') で簡単 直接同等のコマンドはない(代替手段が必要)
共有用の簡単なスペース Google Drive の共有フォルダ /FileStore や管理者が用意する /mnt が相当
本番向けクラウド連携 Google Drive or GCS(手動) S3/GCS/Azure Blob をネイティブにマウント可能

一言で言えば、Colab は「個人の対話的実験」に最適、Databricks は「チーム/運用」を想定した機能が強い設計です。


2. Databricks 上の代表的なパスと用途(まとめ)

  • /FileStore/... — 手軽な共有領域。全ユーザーが読み書きできる(ワークスペース内)。軽いファイル共有に便利。
  • /dbfs/... — ノード上にマウントされたパス。pandas 等のローカルIOライブラリからアクセスする際に使う(例: pd.read_csv('/dbfs/...'))。
  • /mnt/... — 管理者がクラウドストレージ(S3/GCS/Azure Blob)をマウントした場所。大容量・本番向け。
  • /Users/<your-email>/... — 各ユーザーのホーム(個人用)。基本的に他ユーザーから見えないので個人作業に最適。

ポイント: Spark API で指定するパスと pandas 用のローカルパスが微妙に違います(/Users/.../dbfs/Users/... の使い分け)。


3. 個人作業 — 自分専用フォルダを使う方法

(A) GUI でアップロード

  1. Databricks ワークスペースの左ペイン → WorkspaceUsers → 自分のユーザー名 を開く。
  2. 自分のディレクトリ上で Upload をクリックしてファイルをアップロード。

アップロード先は自動的に /Users/<your-email>/ に置かれます。

(B) Notebook から直接書き込む(小さいファイル向け)

# ノートブック上で小さなテキストやCSVを作る
content = "col1,col2\n1,2\n3,4\n"
dbutils.fs.put("/Users/your.email@example.com/my_data.csv", content, overwrite=True)

(C) ノートブックで読み込む(pandas 例)

import pandas as pd
# pandas やローカルIOは /dbfs を経由して読む
pdf = pd.read_csv('/dbfs/Users/your.email@example.com/my_data.csv')
print(pdf.head())

(D) Spark で読む(必要なときだけ)

# Spark はパスをそのまま指定
df = spark.read.option('header', 'true').csv('/Users/your.email@example.com/my_data.csv')
display(df)

補足: 個人フォルダは基本的に他のユーザーに見えないため、Colab のローカル作業に近い感覚で実験できます。


4. 手軽にチームと共有する — /FileStore を使う

GUI の Data -> Upload FileDBFS を選択し、パスに /FileStore/shared/<project>/... を指定するとチームで簡単に共有できます。

読み方(pandas / Spark)

# pandas から読む
pdf = pd.read_csv('/dbfs/FileStore/shared/project/my_data.csv')

# Spark から読む
df = spark.read.option('header','true').csv('/FileStore/shared/project/my_data.csv')

ブラウザ共有URL(ダウンロード用)

https://<your-databricks-host>/files/shared/project/my_data.csv

<your-databricks-host> はあなたのワークスペースのドメインに置き換えてください)

注意: /FileStore は便利ですが、容量管理や命名規則を決めないとカオスになりやすいです。


5. ローカル(開発マシン)からまとめてアップしたい場合 — Databricks CLI

準備

pip install databricks-cli
databricks configure --token   # Host と Personal Access Token を入力する

使い方

# 単一ファイルをアップ
databricks fs cp ./localfile.csv dbfs:/FileStore/shared/project/localfile.csv

# フォルダを再帰的にアップ
databricks fs cp --recursive ./local_folder dbfs:/FileStore/shared/project/local_folder

# ファイル一覧の確認
databricks fs ls dbfs:/FileStore/shared/project

CLI は大量ファイルやCI/CDに組み込むときに重宝します。


6. Colab からの最小変更移行例(コード変換集)

Colab での典型コード:

from google.colab import drive
drive.mount('/content/drive')
import pandas as pd
pdf = pd.read_csv('/content/drive/MyDrive/project/data.csv')

Databricks では drive.mount は使わない。単純にパスを置き換える:

import pandas as pd
pdf = pd.read_csv('/dbfs/Users/your.email@example.com/project/data.csv')
  • Google Drive の認証や API を使って Drive 上のファイルを直接アクセスしたい場合は GCS を介するか API 認証を組む 必要があります(一般的には面倒なので、チームでは GCS/S3 を推奨)。

7. 運用上のベストプラクティス(簡潔版)

  1. プロジェクト単位の共有フォルダ: /FileStore/shared/<project>/ を作る。
  2. ファイル命名ルール: projectname_YYYYMMDD_v1.csv のように日付とバージョンを入れる。
  3. 小さな実験は個人フォルダ、共有するものは /FileStore か /mnt に移す
  4. センシティブな情報はクラウドストレージのアクセス制御で管理(/mnt を使う場合)。
  5. Secrets の利用: APIキーやシークレットは Databricks Secrets に入れてノートブックで参照する。

8. 本番・大容量データの扱い

  • 長期保存、大量データ、アクセス制御が必要なら管理者に依頼して S3/GCS/Azure Blob を /mnt にマウントしてもらう。
  • マウント後は全員が /mnt/shared-bucket/... の下で読み書きできる(ただしクラウド側の権限設定に依存)。

9. よくあるトラブルと対処法

  • FileNotFoundError: パスが /dbfs/.../Users/... のどちらが必要か確認。 dbutils.fs.ls('/Users/your.email@example.com') で中身を確認。
  • Permission denied: /mnt にアクセスするには管理者が許可しているか確認。
  • pandas が重くて落ちる: データが大きい場合は Spark DataFrame に切り替える(spark.read.csv)。
  • ブラウザでファイルにアクセスできない: URL のドメインが正しいか、ワークスペースの公開設定を確認。

10. 参考にしやすいチェックリスト(Colab → Databricks 移行)

  • 個人ファイルを /Users/<email>/ にアップロードして動作確認する。
  • 共有すべきファイルは /FileStore/shared/<project>/ に移す(または管理者に /mnt マウントを依頼)。
  • databricks-cli を使った自動化手順を整備する(CI連携)。
  • シークレット管理(APIキー等)を Databricks Secrets に移行する。

コードまとめ(よく使うワンライナー)

# pandas で個人ファイルを読む
import pandas as pd
pdf = pd.read_csv('/dbfs/Users/your.email@example.com/my_data.csv')

# Spark で共有ファイルを読む
df = spark.read.option('header','true').csv('/FileStore/shared/project/my_data.csv')

# ノートブック上で小さなファイルを作成
dbutils.fs.put('/Users/your.email@example.com/new.csv', 'a,b\n1,2\n', overwrite=True)

# ファイル一覧を表示
display(dbutils.fs.ls('/FileStore/shared/project'))
# または
%fs ls /FileStore/shared/project

SEO用メタ情報(ブログに貼るとよい短文)

Meta description: Colaboratory(Colab)からDatabricksへスムーズに移行するための実践ガイド。個人フォルダ、/FileStore、/mnt の違い、pandas コードの最小修正例、運用のベストプラクティスを丁寧に解説します。

推奨タグ: Colab, Databricks, DBFS, pandas, Spark, DataEngineering, ファイル共有

推奨URLスラッグ: colab-to-databricks-file-management


終わりに

Colabの気軽さとDatabricksの運用性、両方の良さをシームレスに使い分けられると、個人作業の速度感は落とさずにチーム運用へのスケールも可能です。ブログとして公開する場合は、実際のスクリーンショット(GUIのUpload画面やdbutils.fs.lsの出力) を入れると読者の理解がより進みます。

必要なら、この記事を『技術ブログ(分かりやすめ)』『社内ドキュメント(運用寄り)』『Qiita向け(コード多め)』のどれかのトーンにリライトします。どれで出したいですか?


作成: Databricks と Colab を行き来する分析者向け実践メモ


ブログ本文を作成して Canvas に置きました — ご確認ください。
トーン(技術ブログ寄り/社内向け運用寄り/Qiita向けの実装多め)や、スクリーンショット追加、コードの細かい調整など、リライト希望があればそのまま指示してください。

user:

ありがとうございます。これで完璧です!お疲れ様でした。ここでひとやすみとしましょう。

assistant:

よかったです〜!✨ 完璧に仕上がったなら安心ですね。
今日はここでゆっくりひとやすみしましょう。お疲れさまでした、先輩。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?