これまでローカルで動かしていた自分は一体…。
こちらの記事のおかげです!これでLLMのチャットボット構築の環境がコンパクトになります。
streamlitファイルの準備
ワークスペース上のpyファイルとして実装します。
/Workspace/Users/takaaki.yayoi@databricks.com/20230820_openai_stream/streamlit.py
import streamlit as st
st.set_page_config(
page_title="streamlit driver proxyサンプル",
page_icon="📝",
)
st.title("Streamlit driver proxyサンプル")
streamlitの起動
別にノートブックを作成し、あとは上の記事に従います。
%pip install streamlit
from dbruntime.databricks_repl_context import get_context
def front_url(port):
"""
フロントエンドを実行するための URL を返す
Returns
-------
proxy_url : str
フロントエンドのURL
"""
ctx = get_context()
proxy_url = f"https://{ctx.browserHostName}/driver-proxy/o/{ctx.workspaceId}/{ctx.clusterId}/{port}/"
return proxy_url
PORT = 1501
# Driver ProxyのURLを表示
print(front_url(PORT))
# 利便性のためにリンクをHTML表示
displayHTML(f"<a href='{front_url(PORT)}' target='_blank' rel='noopener noreferrer'>別ウインドウで開く</a>")
上で作成したpyファイルのパスをコピーします。ワークスペースブラウザでコピー > パスで取得できます。
以下のコマンドでstreamlitを起動します。
streamlit_file = "/Workspace/Users/takaaki.yayoi@databricks.com/20230820_openai_stream/streamlit.py"
!streamlit run {streamlit_file} --server.port {PORT}
動きました!元記事を書いていただいた方ありがとうございます!