JasonWen commited on
Commit
b347666
·
1 Parent(s): a9116ff

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +32 -5
README.md CHANGED
@@ -6,14 +6,41 @@ license: cc-by-nc-sa-4.0
6
  时间来到2023年4月,距离SD发布也已经大半年了,在这半年间各种AI绘画的算法、模型、工具、平台如雨后春笋般出现,那么我们要使用AI生成furry兽人图像,有哪些选择呢?都需要怎么做呢?有什么好看的咒语呢?我写了一系列文章来回答这些问题(链接在最后)。
7
  ## 0基础入门篇(必读!!!)
8
  ### 一、纯纯的入门介绍(必读)
9
- 总的来说,能画furry的AI有三个大类,一个是由开源的stable diffusion框架二次开发出来的数不胜数的模型,一个是Midjourney和它的变种niji·journey,还有一个是和ChatGPT师出同门的Dall·E2和微软版本的Bing Image Creator。分别简略介绍一下。
10
  AI绘画的进步发生在22年,diffusion算法的相比于之前的GAN算法有了翻天覆地的性能提升,之后框架模型都吸纳了diffusion算法。于是4月OpenAI发布Dall·E2,5月Midjourney内测,7月stable diffusion开源。
11
  22年暑假stable diffusion框架开源(stable diffusion在下文简称SD),由两个公司开发公布,由于开源免费高度自定义迅速占领市场,随后基于SD魔改的模型井喷式爆发。
12
- SD实际上分为两部分SD的框架和模型:常见的框架GUIWebUInaifu和ComfyUI三种,前种都有数不胜数的魔改版和整合包,框架是各种环境、命令、功能、算法的集合;模型则是指的checkpoint或SafeTensor文件(也包括配套的vae等),是存储绘画的实际内容的地方,不同的模型可以画不同的内容。对于自己配置或本地的SD,一个模型可以在不同的框架下运行,一个框架也可以运行多个模型。原版SD由两个公司分别免费开源公布出WebUI和原版SD模型(原版模型不能画furry)。
13
- SD有一个魔改版是NovelAI公司推出的,这个公司本来是研究写小说的AI的,看到绘画赚钱也来分一杯羹,拿着别人免费开源的SD开发出自己的版本。他们开发出了naifu框架和自己的furry模型(兽人控的钱真好赚)。他们早期版本animefull模型和naifu框架(22年十月初)“被黑客”泄露出来,效果还不错,于是有些人就开始花钱直接到他们官网上使用他们的服务。注意!很多人不能区分animefull等模型和naifu框架,都管他们叫NovelAI,在交流上造成很大困扰!
14
  SD有几百种furry模型,其中分为通用的几种和他们不同的版本或epoch,还有上百款针对单个furry角色定制的模型。
15
- SD开源,自己配置麻烦,门槛高,下限低上限高,想要什么模型都可以自己炼,没有任何限制。炼!都可以炼!
16
  现阶段除了MJ和它的变体niji以外,几乎市面上所有的全部都是SD,所有你能搜到的小程序、软件都是包装好的魔改的SD,这些大多数都是不能画furry的(加载animefull或者anything和基于any融合的或许可以,但是效果不一定好)。
17
  还有的就是Midjourney的变种niji·journey了,Midjourney(简称MJ)是22年5月发布,主打写实和艺术绘画,随后waifu diffusion的开发团队加入进来合作开发了niji·journey(下文简称niji)。niji主打二次元AI绘画,也可以画furry,且上手简单不用配置,普遍效果好。MJ在v4之前的版本都很难画furry,v4可以画写实的兽���,v5除了写实兽人以外还可以画一些美漫风格的二次元福瑞。niji和MJ唯二缺点是要花钱和不能画涩图。
18
- 另外我们前面说的Dall·E2也是可以完美画福瑞的,生成质量不差,只是Dall·E2的功能相比SD和MJ显得太少了,而且同样是收费,Dall·E2在OpenAI官网的服务比MJ贵多了。但是因为背靠微软金主,我们现在也能用上免费的Dall·E2了。微软在23年二月推出了基于Dall·E2Bing Image Creator,它和Dall·E2的算法是一样的,只要你登陆微软账号就能无限白嫖。
19
  总结一下,现阶段有niji/MJ、Bing Image Creator和SD上的各种模型能画furry。那他们都有什么特点呢?要怎么选择呢?
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6
  时间来到2023年4月,距离SD发布也已经大半年了,在这半年间各种AI绘画的算法、模型、工具、平台如雨后春笋般出现,那么我们要使用AI生成furry兽人图像,有哪些选择呢?都需要怎么做呢?有什么好看的咒语呢?我写了一系列文章来回答这些问题(链接在最后)。
7
  ## 0基础入门篇(必读!!!)
8
  ### 一、纯纯的入门介绍(必读)
9
+ 总的来说,能画furry的AI有三个大类,一个是由开源的**stable diffusion框架二次开发**出来的数不胜数的模型,一个是**Midjourney和它的变种niji·journey**,还有一个是和ChatGPT师出同门的**Dall·E2和微软版本的Bing Image Creator**。分别简略介绍一下。
10
  AI绘画的进步发生在22年,diffusion算法的相比于之前的GAN算法有了翻天覆地的性能提升,之后框架模型都吸纳了diffusion算法。于是4月OpenAI发布Dall·E2,5月Midjourney内测,7月stable diffusion开源。
11
  22年暑假stable diffusion框架开源(stable diffusion在下文简称SD),由两个公司开发公布,由于开源免费高度自定义迅速占领市场,随后基于SD魔改的模型井喷式爆发。
12
+ SD实际上分为两部分SD的框架和模型:常见的框架GUI有**WebUI**、naifu和ComfyUI三种,前种都有数不胜数的魔改版和整合包,框架是各种环境、命令、功能、算法的集合;模型则是指的checkpoint或SafeTensor文件(也包括配套的vae等),是存储绘画的实际内容的地方,不同的模型可以画不同的内容。对于自己配置或本地的SD,一个模型可以在不同的框架下运行,一个框架也可以运行多个模型。原版SD由两个公司分别免费开源公布出WebUI和原版SD模型(原版模型不能画furry)。
13
+ SD有一个魔改版是NovelAI公司推出的,这个公司本来是研究写小说的AI的,看到绘画赚钱也来分一杯羹,拿着别人免费开源的SD开发出自己的版本。他们开发出了naifu框架和自己的furry模型(兽人控的钱真好赚)。他们早期版本**animefull模型和naifu框架**(22年十月初)“被黑客”泄露出来,效果还不错,于是有些人就开始花钱直接到他们官网上使用他们的服务。**注意!很多人不能区分animefull等模型和naifu框架,都管他们叫NovelAI,在交流上造成很大困扰!**
14
  SD有几百种furry模型,其中分为通用的几种和他们不同的版本或epoch,还有上百款针对单个furry角色定制的模型。
15
+ SD开源,自己配置麻烦,门槛高,下限低上限高,想要什么模型都可以自己炼,没有任何限制。**炼!都可以炼!**
16
  现阶段除了MJ和它的变体niji以外,几乎市面上所有的全部都是SD,所有你能搜到的小程序、软件都是包装好的魔改的SD,这些大多数都是不能画furry的(加载animefull或者anything和基于any融合的或许可以,但是效果不一定好)。
17
  还有的就是Midjourney的变种niji·journey了,Midjourney(简称MJ)是22年5月发布,主打写实和艺术绘画,随后waifu diffusion的开发团队加入进来合作开发了niji·journey(下文简称niji)。niji主打二次元AI绘画,也可以画furry,且上手简单不用配置,普遍效果好。MJ在v4之前的版本都很难画furry,v4可以画写实的兽���,v5除了写实兽人以外还可以画一些美漫风格的二次元福瑞。niji和MJ唯二缺点是要花钱和不能画涩图。
18
+ 另外我们前面说的**Dall·E2**也是可以完美画福瑞的,生成质量不差,只是Dall·E2的功能相比SD和MJ显得太少了,而且同样是收费,Dall·E2在OpenAI官网的服务比MJ贵多了。但是因为背靠微软金主,我们现在也能用上免费的Dall·E2了。微软在23年二月推出了基于Dall·E2的**Bing Image Creator**,它和Dall·E2的算法是一样的,只要你登陆微软账号就能无限白嫖。
19
  总结一下,现阶段有niji/MJ、Bing Image Creator和SD上的各种模型能画furry。那他们都有什么特点呢?要怎么选择呢?
20
+ ### 二、该选择哪一种工具
21
+ #### 1.根据手里的设备选择工具
22
+ 先确定你手上有什么设备,所有的AI绘画都需要高性能消耗,一般都是使用**英伟达显卡**(99%)也有极少数可以使用CPU、A卡或者Mac的,但是操作复杂、速度慢、效率低不推荐使用。N卡最好20系以上、60以上的型号,最好6G显存或以上,低于这个标准一点也能用,再低比如960或者4G显存的卡就会使用得极其痛苦。cuda够用的情况下显存越大越好。
23
+ 如果你有上述硬件,那就可以在**本地运行SD**,想画啥画啥,没有限制。如果没有这些,比如只有手机、平板或苹果电脑,那就看一下各种云端的服务吧。
24
+ ~~先强调一下,你在手机上用别人的服务,不是说你用手机那残废的soc生成出来的!本质还是你把生成指令通过网络发送到别人的服务器上用别人的N卡生成出的图片!不要再说是手机跑出来的辣!真让人血压升高!~~
25
+ **云端服务**又可以大致分为三种,分别是**大公司的服务(niji/MJ、Dall·E2/Bing Image Creator和NovelAI)、租赁云端服务器自己配置**、小作坊小公司配置好的平台。这里只推荐前两种,后一种性价比低。
26
+ 先说两种大公司的服务,单独购买每个月都要**两百到三百人民币左右(汇率问题)**,可以到群里时不时嚎一嗓子有没有拼车的,几个人一起购买会便宜一些。**NovelAI的服务是不需要魔法上网就可以访问的,界面全英,看不懂用翻译器**。而**niji/MJ是在discord频道里对机器人发送指令,访问discord要魔法上网(这里电脑端推荐steam++,手机端自己看)**。都是只要能访问、花钱氪金之后就能用,不挑本地设备是电脑还是手机。除了上述花钱购买的服务,还可以用微软的**Bing Image Creator,只需要魔法上网加登陆微软账号就可以无限白嫖**。
27
+ 租赁云端服务器自己配置适用于没有本地合适的硬件但是仍追求自己全部掌握的自由度,常见的有**colab(已经不能免费白嫖了)、autodl(价格低廉好用)、阿里云(秋叶的推广可以白嫖三个月)等**提供显卡算力的云平台(这几个平台都有人配置好了,方便),还有百度腾讯华为的云服务器(不太推荐)。这种方法是**你在云端配置好框架和模型,然后你通过网页访问服务器,发送命令获得图片**。其他平台的教程百度或者B站搜索。
28
+ #### 2.  根据需求选择工具
29
+
30
+ 除了设备和使用方法外,也可以根据你想画什么来选择。
31
+ 如果你**不打算画瑟图**,想要美术风格更加强烈的图片(一眼美或者一眼帅),且对furry的特征没有要求(不画oc和别人的设定),那首推用niji画,niji简单好用易上手,只要你用心学,**三天就能速成**,~~学不会来打我~~。这里贴一个教程,看完包会[niji操作与咒语的快问快答](https://docs.qq.com/doc/DSVZQTnZteHlMYmp3)。除此之外还有**可以白嫖的Bing Image Creator**,很多情况下不比niji/MJ效果差,而且还能白嫖,教程[Dall·E2和Bing的AI图像生成](https://docs.qq.com/doc/DUXV5clpHT1JaZGx4)。
32
+ 如果你**打算画瑟图**,或者想画的内容比较偏门,或者对furry的特征有要求(画oc和别人的设定),那就用SD,更进一步说是WebUI(naifu自由度还是太低了,comfyUI还不成熟)。SD有些模型专门绘制冷门XP(感谢制作者!),还可以深度定制修改模型,真正做到了百无禁忌,想画啥就画啥。尽管现阶段WebUI的使用已经有无数前人的经验总结,变得很简单了(比之前),但是上手还有一定成本,最主要的是大多数模型生成一眼好看的图的概率比较低,很多人上来不会写咒语就���成古神,泼几次凉水后就没兴趣了。总的来说**玩得好真是能够画所有的东西,但是想要学到高手水平不容易**。
33
+ 如果你**打算画瑟图**,但是也不想在本地或者云服务器折腾,就想输入咒语就出现瑟图,那只有**NovelAI官网的furry beta模型**可以选择了。**吟唱,出瑟图,氪完金一切都是那么简单**。NovelAI的模型出图质量稳定,但是画风不多(也可能是我们氪金的人太少,没多少人研究出它的全部实力)。
34
+ ### 三、必要的基本知识和术语
35
+
36
+ #### 1.  基本知识和术语
37
+
38
+ AI绘画最基本的操作是文生图和图生图。顾名思义**文生图**是你输入一些描述的词语或文字,算法根据你的描述生成对应图像;**图生图**是你先提供一张参考图片,程序根据图片和你的描述文字结合来生成图片。注意,图生图的参考都不是让AI记住你的人物,然后画出人物的其他姿态和动作,更接近根据色块和构图生成(SD的图生图)或者生成给定图片的风格的图片(niji的图生图),背后原因跟diffusion算法的原理有关(记住结论就行,如果想知道深层原理看这一篇[什么是AI绘画与stable diffusion讲解](https://docs.qq.com/doc/DSWVVYnZXdmhiTlBk))。
39
+
40
+ 你给程序的文字描述,用最标准的术语叫**prompt**,有时叫tag、咒语、关键词之类的大家也能听懂,只要生成图片就一定需要prompt。正面关键词是我们希望AI画出来的东西,负面关键词(negative prompt)是我们不希望AI画出来的东西。
41
+
42
+ **参数**,常见的参数有画面分辨率和影响画面质量的一系列参数,具体每个框架不一样,下面分别讲。
43
+
44
+ 另外,咒语还有**语法**,语法是咒语的书写规范和特殊符号使用方法。SD的WebUI和naifu的语法看这里[SD咒语和语法(WebUI或naifu)](https://docs.qq.com/doc/DSXBkTVZrUmpLdmpC),niji和MJ看这个[niji操作与咒语的快问快答](https://docs.qq.com/doc/DSVZQTnZteHlMYmp3)。
45
+
46
+ 对于SD框架,还可以自己加载不同的**模型**,也叫丹药。一个模型可能有多个版本,有时间上不同epoch的迭代,也有一个epoch的修剪版(降低体积,牺牲一点点质量)。模型的制作也叫炼丹。常见能画furry的模型可以分为4类:具有泛化性的**通用模型**,如animefull和anything(二次元)、fkingScifi(写实),这些主力不是用来画福瑞的,但是具有对furry的泛化性,效果也还行;**通用福瑞模型**,如furry epoch4、yiffy-e18(简称ye18,是第18个epoch)、YiffAI V2(简称YAI,还在更新);**特殊XP专用模型**,如Zack3D_Kinky(简称Z3D,也可以当通用福瑞模型用)、AnalVoreHumanFurryPony等;**特定角色专用模型**,现在已经被LoRA取代了,如阿努比斯(埃及神话)、布莱泽(艾尔登法环)、雷格西(动物狂想曲)等等你能想到的角色里面有十个甚至九个都有专属模型。注:模型大类可以参考,但是举的例子基本都是老模型了