\n from basicsr.utils.download_util import load_file_from_url\n ModuleNotFoundError: No module named 'basicsr'\n\n---\nsd-webui-prompt-all-in-one background API service started successfully.\n\u001b[1;31m2025-06-12 04:45:21.130 [E] [proxy/proxy.go:215] [296864d7a226b814] [web] connect to local service [127.0.0.1:7860] error: dial tcp 127.0.0.1:7860: connect: connection refused\n\u001b[0m2025-06-12 04:45:21,831 - ControlNet - \u001b[0;32mINFO\u001b[0m - ControlNet UI callback registered.\n\u001b[1;31m2025-06-12 04:45:22.074 [E] [proxy/proxy.go:215] [296864d7a226b814] [web] connect to local service [127.0.0.1:7860] error: dial tcp 127.0.0.1:7860: connect: connection refused\n\u001b[0m\u001b[1;31m2025-06-12 04:45:22.368 [E] [proxy/proxy.go:215] [296864d7a226b814] [web] connect to local service [127.0.0.1:7860] error: dial tcp 127.0.0.1:7860: connect: connection refused\n\u001b[0mRunning on local URL: http://127.0.0.1:7860\nRunning on public URL: https://abc7669e3a91f63a24.gradio.live\n\nThis share link expires in 72 hours. For free permanent hosting and GPU upgrades, run `gradio deploy` from Terminal to deploy to Spaces (https://huggingface.co/spaces)\n\u001b[92mIIB Database file has been successfully backed up to the backup folder.\u001b[0m\nStartup time: 7.5s (load scripts: 1.8s, create ui: 2.0s, gradio launch: 2.6s, add APIs: 0.8s, app_started_callback: 0.2s).\n","output_type":"stream"}],"execution_count":null},{"cell_type":"code","source":"%cd stable-diffusion-webui\n!/kaggle/opt/conda/envs/venv/bin/python3 launch.py --xformers --administrator --ngrok=2LpUQuhU9NX1nt0XdzCWAoKDMZG_73C2wx9MCdwCVcrn65aCD","metadata":{"trusted":true,"execution":{"iopub.status.busy":"2025-04-12T11:05:08.724366Z","iopub.execute_input":"2025-04-12T11:05:08.724679Z","iopub.status.idle":"2025-04-12T11:05:08.874416Z","shell.execute_reply.started":"2025-04-12T11:05:08.724654Z","shell.execute_reply":"2025-04-12T11:05:08.873737Z"}},"outputs":[],"execution_count":null},{"cell_type":"code","source":"# 这个代码是用来打包SadTalker生成的视频的,保存至SadTalker.zip里\n!zip -r /kaggle/working/SadTalker.zip /kaggle/working/stable-diffusion-webui/results/*","metadata":{"trusted":true,"execution":{"iopub.status.busy":"2025-04-12T11:04:33.237037Z","iopub.status.idle":"2025-04-12T11:04:33.237366Z","shell.execute_reply.started":"2025-04-12T11:04:33.237199Z","shell.execute_reply":"2025-04-12T11:04:33.237215Z"}},"outputs":[],"execution_count":null},{"cell_type":"markdown","source":"## 我的其它一些云端部署项目,感兴趣来看看:\n### Stable Diffusion ComfyUI:https://www.kaggle.com/code/qq2575044704/stable-diffusion-comfyui-sdxl\n### Lora训练:https://www.kaggle.com/code/qq2575044704/lora-train-kaggle-lora","metadata":{}},{"cell_type":"markdown","source":"# 使用帮助\n## kaggle账号\n- 注册账号需要手机号,国内手机号也行,如果点击注册后没反应,估计是需要梯子,用于人机验证\n- 注册后点此笔记的 **Copy & Edit** 按钮就进到编辑界面\n- 如果没有按规定操作可能会导致封号\n\n## **准备工作**\n1. 右侧面板 **Settings/ACCELERATOR** 需要选择GPU **P100 或 T4x2** 这两据说有差异,但我用起来差不多\n2. 右侧面板 **Settings/LANGUAGE** 需要选择Python\n~~2. 右侧面板 **Settings/PERSISTENCE** 建议选择 Files only **作用是保存Outpot目录内的文件**~~(不能用File Only)\n3. 右侧面板 **Settings/ENVIRONMENT** 建议不改这个配置,使用当前默认值就行\n4. 右侧面板 **Settings/INTERNET** 需要打开 用于联网,没网跑不起来的啊\n\n## **启动**\n### 启动方式一(不推荐) **直接点击页面上边的 RunAll**\n- 手机端可能会出现页面上边的工具栏不显示的情况,左侧菜单按钮里也有相关的操作\n- 长时间不操作页面会导致脚本停止 (应该是40分钟吧)\n### - 一旦关机后所有目录都会被清空,不会被保存\n\n### 启动方式二(推荐) **使用页面上边的 Save Version 后台运行!!!!!**\n- 后台运行不用担心长时间不操作脚本停止\n- Version Type 选择 **Save & Run All**\n- 在Save Version弹窗里需要选择使用**GPU**环境 (Advanced Settings 里最后一个选项)\n- 左下角弹出的Active Event代表你运行的实例。在运行的实例处展开,可以打开运行日志(Log)或停止(Stop)\n- 后台运行的输出的图片可以在运行结束后在Output下载\n\n\n## **访问**\n# Kaggle没有自带的内网穿透,sd的7860端口是进不去的,需要使用第三方内网穿透工具\n- 目前可使用的内网穿透是ngrok和frp,较为稳定,暂时不会出现bug。\n- 如果需要低价frp内网穿透服务器,请找群主购买\n\n## **增加模型**\n# 方法一:\n通过下载连接下载到Kaggle\nKaggle的宽带很快,300MB/s,不到30秒就下好大模型了\n# 方法二:\n1. 先创建数据集,也就是dataset\n2. 创建时需要添加文件,选择自己的模型文件就行\n3. 同类型文件放相同的数据集里面,一个数据集也不要太大\n4. 可以在dataset搜索其他人上传的模型\n5. 通过右侧的 **Add Data** 按钮选择已经上传的模型文件或者别人上传的模型文件\n - input 下面的列表就是模型文件,可以点击名称后面的复制按钮复制路径\n6. 将模型路径放在配置里的对应配置里即可,支持文件夹和文件路径,参考\n - 如果目录里还有子目录也是需要加载的,可以用*表示子目录 例子:比如Loras目录下还有角色、画风、涩涩的文件夹,那路径里写成 '/kaggle/input/Loras/*'就可以加载子目录里面的文件了\n - 模型加载使用的文件链接方式,如果你融模型的时候新模型名字和原有模型名字一样,会出现不能修改只读文件的错误\n - 同理,直接对模型做编辑的工具可能也会出现相同的错误\n \n \n\n## **一些可能没用的说明**\n- 配置说明 **True或者False**表示布尔值 **True**表示“**是**” **False**表示“**否**” 只有这两个值\n- 配置说明 **[]** 表示数组,里面可以存放内容,每个内容需要用**英语(半角)逗号**隔开\n- 配置说明 **''或者\"\"** 英语(半角)的双引号或者单引号包裹的内容是**字符串**,比如放在数组里面的路径就需要是一个字符串\n- 配置说明 **#** **#** 后面的内容是**注释**,是帮助性内容,对整个代码的执行不会有影响\n\n\n ### 运行之前请检查GPU和Internet是否已经打开\n### 如果出现报错,最有效的解决方法是先将PERSISTENCE改为No,再重新启动,相当于清除数据重新安装\n## 如果链接无法打开,请换内网穿透方式。\n## 生成的图片历史在Output目录里的archive.zip,也可以从webui的图库浏览器里看\n\n # 群号码:632428790","metadata":{}},{"cell_type":"code","source":"#测试用\n!cp -r /kaggle/opt/conda/envs/venv /kaggle/working\n\n!/kaggle/opt/conda/envs/venv/bin/python3 -m \"pip\" install insightface\n\n%cd /kaggle/working/opt/conda/envs\n\n!find . ! -name 'venv_2024.2.18.tar.bak' -exec rm -rf {} +\n\n%cd /kaggle/working\n\n!tar -cvf /kaggle/working/venv_2024.2.18.tar.bak ./venv","metadata":{"trusted":true,"execution":{"iopub.status.busy":"2025-04-12T11:04:33.238186Z","iopub.status.idle":"2025-04-12T11:04:33.238516Z","shell.execute_reply.started":"2025-04-12T11:04:33.238334Z","shell.execute_reply":"2025-04-12T11:04:33.23835Z"}},"outputs":[],"execution_count":null},{"cell_type":"markdown","source":"-----------------","metadata":{}},{"cell_type":"markdown","source":"# > 附录:sd启动参数\n常见的:\n\n*\n --xformers 尝试使用xformers \n\n--force-enable-xformers 强制使用xformers\n\n\n --xformers-flash-attention 启用具有Flash Attention的xformers\n \n --no-half-vae VAE全精度(可以解决黑图问题)\n \n --no-hashing 取消模型哈希计算值*\n --api 启用api","metadata":{}},{"cell_type":"code","source":"'''\n -h, --help 显示此帮助消息并退出\n --update-all-extensions\n launch.py 参数:在启动程序时下载所有扩展的更新\n --skip-python-version-check\n launch.py 参数:不检查Python版本\n --skip-torch-cuda-test\n launch.py 参数:不检查CUDA是否能正常工作\n --reinstall-xformers launch.py 参数:安装适当版本的xformers,即使您已经安装了某个版本\n --reinstall-torch launch.py 参数:安装适当版本的torch,即使您已经安装了某个版本\n --update-check launch.py 参数:在启动时检查更新\n --test-server launch.py 参数:配置用于测试的服务器\n --skip-prepare-environment\n launch.py 参数:跳过所有环境准备步骤\n --skip-install launch.py 参数:跳过软件包的安装\n --data-dir DATA_DIR 存储所有用户数据的基本路径\n --config CONFIG 构建模型的配置文件路径\n --ckpt CKPT 稳定扩散模型的检查点路径;如果指定了此参数,该检查点将添加到检查点列表并加载\n --ckpt-dir CKPT_DIR 包含稳定扩散检查点的目录路径\n --vae-dir VAE_DIR 包含VAE文件的目录路径\n --gfpgan-dir GFPGAN_DIR\n GFPGAN目录\n --gfpgan-model GFPGAN_MODEL\n GFPGAN模型文件名\n --no-half 不将模型切换为16位浮点数\n --no-half-vae 不将VAE模型切换为16位浮点数\n --no-progressbar-hiding\n 不在gradio UI中隐藏进度条(因为它会减慢浏览器中的硬件加速)\n --max-batch-count MAX_BATCH_COUNT\n UI的最大批次计数值\n --embeddings-dir EMBEDDINGS_DIR\n 文本反演的嵌入目录(默认为embeddings)\n --textual-inversion-templates-dir TEXTUAL_INVERSION_TEMPLATES_DIR\n 包含文本反演模板的目录路径\n --hypernetwork-dir HYPERNETWORK_DIR\n 超网络目录\n --localizations-dir LOCALIZATIONS_DIR\n 本地化目录\n --allow-code 允许从Web界面执行自定义脚本\n --medvram 启用稳定扩散模型的优化,以牺牲一些速度以实现低VRM使用率\n --lowvram 启用稳定扩散模型的优化,以牺牲大量速度以实现非常低的VRM使用率\n --lowram 将稳定扩散检查点权重加载到VRAM而不是RAM中\n --always-batch-cond-uncond\n 禁用条件/非条件批处理,该批处理可通过--medvram或--lowvram来节省内存\n --unload-gfpgan 无任何操作。\n --precision {full,autocast}\n 在此精度下进行评估\n --upcast-sampling 上升采样。对于--no-half没有影响。通常与--no-half相比,产生类似的结果,性能更好,同时使用更少的内存。\n --share 对gradio使用share=True,并使UI可以通过其网站访问\n --ngrok NGROK ngrok的认证令牌,替代gradio --share\n --ngrok-region NGROK_REGION\n 无任何操作。\n --ngrok-options NGROK_OPTIONS\n 以JSON格式传递给ngrok的选项,例如:\n '{\"authtoken_from_env\":true,\n \"basic_auth\":\"user:password\",\n \"oauth_provider\":\"google\",\n \"oauth_allow_emails\":\"user@asdf.com\"}'\n --enable-insecure-extension-access\n 禁用其他选项,启用扩展选项\n --codeformer-models-path CODEFORMER_MODELS_PATH\n 包含codeformer模型文件的目录路径。\n --gfpgan-models-path GFPGAN_MODELS_PATH\n 包含GFPGAN模型文件的目录路径。\n --esrgan-models-path ESRGAN_MODELS_PATH\n 包含ESRGAN模型文件的目录路径。\n --bsrgan-models-path BSRGAN_MODELS_PATH\n 包含BSRGAN模型文件的目录路径。\n --realesrgan-models-path REALESRGAN_MODELS_PATH\n 包含RealESRGAN模型文件的目录路径。\n --clip-models-path CLIP_MODELS_PATH\n 包含CLIP模型文件的目录路径。\n --xformers 启用xformers的交叉注意力层\n --force-enable-xformers\n 启用xformers的交叉注意力层,无论检查代码是否认为您可以运行它;如果此操作无法正常工作,请不要提交错误报告\n --xformers-flash-attention\n 启用具有Flash Attention的xformers,以提高可重现性(仅适用于SD2.x或变体)\n --deepdanbooru 无任何操作。\n --opt-split-attention\n 首选Doggettx的交叉注意力层优化,用于自动选择优化方式\n --opt-sub-quad-attention\n 首选内存高效的次二次交叉注意力层优化,用于自动选择优化方式\n --sub-quad-q-chunk-size SUB_QUAD_Q_CHUNK_SIZE\n 用于次二次交叉注意力层优化的查询块大小\n --sub-quad-kv-chunk-size SUB_QUAD_KV_CHUNK_SIZE\n 用于次二次交叉注意力层优化的kv块大小\n --sub-quad-chunk-threshold SUB_QUAD_CHUNK_THRESHOLD\n 用于次二次交叉注意力层优化的VRAM阈值的百分比,以使用块处理\n --opt-split-attention-invokeai\n 首选InvokeAI的交叉注意力层优化,用于自动选择优化方式\n --opt-split-attention-v1\n 首选旧版本的分割注意力优化,用于自动选择优化方式\n --opt-sdp-attention 首选缩放点积交叉注意力层优化,用于自动选择优化方式;需要PyTorch 2.*\n --opt-sdp-no-mem-attention\n 首选没有��存高效注意力的缩放点积交叉注意力层优化,用于自动选择优化方式,使图像生成具有确定性;需要PyTorch 2.*\n --disable-opt-split-attention\n 首选不进行交叉注意力层优化,用于自动选择优化方式\n --disable-nan-check 不检查生成的图像/潜空间是否包含NaN;在没有检查点的情况下运行时很有用\n --use-cpu USE_CPU [USE_CPU ...]\n 使用CPU作为指定模块的torch设备\n --listen 使用0.0.0.0作为服务器名称启动gradio,以响应网络请求\n --port PORT 使用给定的服务器端口启动gradio,对于<1024的端口,您需要root/admin权限,默认为7860(如果可用)\n --show-negative-prompt\n 无任何操作。\n --ui-config-file UI_CONFIG_FILE\n 用于ui配置的文件名\n --hide-ui-dir-config 隐藏Web界面中的目录配置\n --freeze-settings 禁用编辑设置\n --ui-settings-file UI_SETTINGS_FILE\n 用于ui设置的文件名\n --gradio-debug 使用--debug选项启动gradio\n --gradio-auth GRADIO_AUTH\n 设置gradio的身份验证,格式为“username:password”;或者使用逗号分隔多个,例如“u1:p1,u2:p2,u3:p3”\n --gradio-auth-path GRADIO_AUTH_PATH\n 设置gradio的身份验证文件路径,例如“/path/to/auth/file”,与--gradio-auth具有相同的身份验证格式\n --gradio-img2img-tool GRADIO_IMG2IMG_TOOL\n 无任何操作。\n --gradio-inpaint-tool GRADIO_INPAINT_TOOL\n 无任何操作。\n --gradio-allowed-path GRADIO_ALLOWED_PATH\n 将路径添加到gradio的allowed_paths,使其可以从中提供文件\n --opt-channelslast 将稳定扩散的内存类型更改为channels last\n --styles-file STYLES_FILE\n 用于样式的文件名\n --autolaunch 启动后在系统的默认浏览器中打开Web界面的URL\n --theme THEME 使用浅色或深色主题启动UI\n --use-textbox-seed 在UI中使用文本框作为种子(没有上/下箭头,但可以输入长种子)\n --disable-console-progressbars\n 不将进度条输出到控制台\n --enable-console-prompts\n 使用txt2img和img2img生成时,在控制台打印提示\n --vae-path VAE_PATH 用作VAE的检查点;设置此参数会禁用与VAE相关的所有设置\n --disable-safe-unpickle\n 禁用检查PyTorch模型是否包含恶意代码\n --api 使用api=True同时启动API和Web界面(仅使用--nowebui启动API)\n --api-auth API_AUTH 设置API的身份验证,格式为“username:password”;或者使用逗号分隔多个,例如“u1:p1,u2:p2,u3:p3”\n --api-log 使用api-log=True启用所有API请求的日志记录\n --nowebui 使用api=True启动API而不是Web界面\n --ui-debug-mode 不加载模型,快速启动UI\n --device-id DEVICE_ID\n 选择要使用的默认CUDA设备(在之前需要导出CUDA_VISIBLE_DEVICES=0,1等)\n --administrator 管理员权限\n --cors-allow-origins CORS_ALLOW_ORIGINS\n 以逗号分隔的列表形式的允许CORS源(无空格)\n --cors-allow-origins-regex CORS_ALLOW_ORIGINS_REGEX\n 单个正则表达式形式的允许CORS源\n --tls-keyfile TLS_KEYFILE\n 部分启用TLS,需要--tls-certfile才能完全工作\n --tls-certfile TLS_CERTFILE\n 部分启用TLS,需要--tls-keyfile才能完全工作\n --disable-tls-verify 通过此参数启用使用自签名证书。\n --server-name SERVER_NAME\n 设置服务器的主机名\n --gradio-queue 无任何操作。\n --no-gradio-queue 禁用gradio队列;导致网页使用HTTP请求而不是Websockets;在早期版本中是默认设置\n --skip-version-check 不检查torch和xformers的版本\n --no-hashing 禁用检查点的sha256哈希,以提高加载性能\n --no-download-sd-model\n 即使在--ckpt-dir中找不到模型,也不下载SD1.5模型\n --subpath SUBPATH 自定义gradio的子路径,与反向代理一起使用\n --add-stop-route 添加/_stop路由以停止服务器\n '''","metadata":{"trusted":true,"execution":{"iopub.status.busy":"2025-04-12T11:04:33.240328Z","iopub.status.idle":"2025-04-12T11:04:33.240677Z","shell.execute_reply.started":"2025-04-12T11:04:33.240505Z","shell.execute_reply":"2025-04-12T11:04:33.240521Z"}},"outputs":[],"execution_count":null},{"cell_type":"markdown","source":"---------------","metadata":{}},{"cell_type":"markdown","source":"# NoteBook Created By 2575044704\n# Stable Diffusion By AUTOMATIC1111\n# DO NOT PRODUCE NSFW IMAGE!! it violates the Kaggle rules, learn more: https://www.kaggle.com/community-guidelines","metadata":{}},{"cell_type":"markdown","source":"\n 📌 2022年11月18日: Created By Yiyiooo。基于Yiyiooo的项目修改\n
\n最近更新日志:\n\n 2023年3月5日更新:现在支持通过下载链接上传模型了,省去了下载模型后再上传后的麻烦.()\n
\n\n 2023年5月15日更新:现在可以双开webui了,可以双线程跑图(GPU请选择 T4 x2 , 将use2设置为True)\n
\n\n 2023年5月15日更新:更新了多线程启动,启动速度更快一些\n
\n\n 2023年6月6日更新:更新了xformers版本,生成速度更快一些\n
\n\n 2023年7月19日更新:更新了图片自动打包和删除功能,顺便添加了一些注释\n
\n\n 2023年7月21日更新:更新了默认Cross Attention启动参数,据说可以加快20%生成速度\n
\n\n 2023年9月21日更新:更新了xformers版本,更新了内网穿透,之前的版本不能用了\n
\n\n 2023年10月14日更新:更新了一些说明\n
\n\n 2023年11月4日更新:更新了animatediff\n
\n\n 2023年11月6日更新:更新了自定义文件名\n
\n\n 2024年1月1日更新:打个卡,太久没更别人以为我不做公益了\n
\n\n 2024年1月25日更新:修复了一些bug\n
\n\n 2024年2月3日更新:解决了Python not found的BUG\n
\n\n 2024年12月19日更新:更新了环境包\n
\n\n 2025年4月13日更新:Kaggle环境突然大改,导致旧版环境包失效。目前已经修复\n
","metadata":{}},{"cell_type":"code","source":"!echo hi","metadata":{"trusted":true,"execution":{"iopub.status.busy":"2025-04-12T11:04:33.241684Z","iopub.status.idle":"2025-04-12T11:04:33.242048Z","shell.execute_reply.started":"2025-04-12T11:04:33.241866Z","shell.execute_reply":"2025-04-12T11:04:33.241884Z"}},"outputs":[],"execution_count":null},{"cell_type":"code","source":"!/kaggle/opt/conda/envs/venv/bin/python3 ","metadata":{"trusted":true,"execution":{"iopub.status.busy":"2025-04-12T11:04:53.793185Z","iopub.execute_input":"2025-04-12T11:04:53.793738Z","iopub.status.idle":"2025-04-12T11:04:56.337782Z","shell.execute_reply.started":"2025-04-12T11:04:53.79371Z","shell.execute_reply":"2025-04-12T11:04:56.336772Z"}},"outputs":[],"execution_count":null}]}
\ No newline at end of file