どうやら、GoogleのNotebookLMをOSSで実現するためのものらしいが、完全ローカルにするためにollamaで用いたいときは以下のdockerコマンドを使えば使えることが確認できた。192.168.1.26は自分の環境に合わせて適宜変更。
docker run -d \
--name open-notebook \
-p 8502:8502 -p 5055:5055 \
-v ./notebook_data:/app/data \
-v ./surreal_data:/mydata \
-e API_CLIENT_TIMEOUT=300 \
-e OLLAMA_API_BASE="http://192.168.1.26:11434" \
-e SURREAL_URL="ws://localhost:8000/rpc" \
-e SURREAL_USER="root" \
-e SURREAL_PASSWORD="root" \
-e SURREAL_NAMESPACE="open_notebook" \
-e SURREAL_DATABASE="production" \
lfnovo/open_notebook:v1-latest-single
これでOpen Notebook自体は起動し、あとはモデルを下記のように指定すれば動くようになる…と思われる…というか自分の場合は動いた。ただ、ollamaを別のマシン上で動かしたときはうまく動かなかった。
を実行すると「Ollama is running」が返っては来るのだけれど…。
ただ、そもそもNotebookLMを使っていたわけではないので、何が便利か分かっていない…。
