Update README.md
Browse files
README.md
CHANGED
|
@@ -7,15 +7,25 @@ license: cc-by-nc-sa-4.0
|
|
| 7 |
## 0基础入门篇(必读!!!)
|
| 8 |
### 一、纯纯的入门介绍(必读)
|
| 9 |
总的来说,能画furry的AI有三个大类,一个是由开源的**stable diffusion框架二次开发**出来的数不胜数的模型,一个是**Midjourney和它的变种niji·journey**,还有一个是和ChatGPT师出同门的**Dall·E2和微软版本的Bing Image Creator**。分别简略介绍一下。
|
|
|
|
| 10 |
AI绘画的进步发生在22年,diffusion算法的相比于之前的GAN算法有了翻天覆地的性能提升,之后框架模型都吸纳了diffusion算法。于是4月OpenAI发布Dall·E2,5月Midjourney内测,7月stable diffusion开源。
|
|
|
|
| 11 |
22年暑假stable diffusion框架开源(stable diffusion在下文简称SD),由两个公司开发公布,由于开源免费高度自定义迅速占领市场,随后基于SD魔改的模型井喷式爆发。
|
|
|
|
| 12 |
SD实际上分为两部分SD的框架和模型:常见的框架GUI有**WebUI**、naifu和ComfyUI三种,前种都有数不胜数的魔改版和整合包,框架是各种环境、命令、功能、算法的集合;模型则是指的checkpoint或SafeTensor文件(也包括配套的vae等),是存储绘画的实际内容的地方,不同的模型可以画不同的内容。对于自己配置或本地的SD,一个模型可以在不同的框架下运行,一个框架也可以运行多个模型。原版SD由两个公司分别免费开源公布出WebUI和原版SD模型(原版模型不能画furry)。
|
|
|
|
| 13 |
SD有一个魔改版是NovelAI公司推出的,这个公司本来是研究写小说的AI的,看到绘画赚钱也来分一杯羹,拿着别人免费开源的SD开发出自己的版本。他们开发出了naifu框架和自己的furry模型(兽人控的钱真好赚)。他们早期版本**animefull模型和naifu框架**(22年十月初)“被黑客”泄露出来,效果还不错,于是有些人就开始花钱直接到他们官网上使用他们的服务。**注意!很多人不能区分animefull等模型和naifu框架,都管他们叫NovelAI,在交流上造成很大困扰!**
|
|
|
|
| 14 |
SD有几百种furry模型,其中分为通用的几种和他们不同的版本或epoch,还有上百款针对单个furry角色定制的模型。
|
|
|
|
| 15 |
SD开源,自己配置麻烦,门槛高,下限低上限高,想要什么模型都可以自己炼,没有任何限制。**炼!都可以炼!**
|
|
|
|
| 16 |
现阶段除了MJ和它的变体niji以外,几乎市面上所有的全部都是SD,所有你能搜到的小程序、软件都是包装好的魔改的SD,这些大多数都是不能画furry的(加载animefull或者anything和基于any融合的或许可以,但是效果不一定好)。
|
|
|
|
| 17 |
还有的就是Midjourney的变种niji·journey了,Midjourney(简称MJ)是22年5月发布,主打写实和艺术绘画,随后waifu diffusion的开发团队加入进来合作开发了niji·journey(下文简称niji)。niji主打二次元AI绘画,也可以画furry,且上手简单不用配置,普遍效果好。MJ在v4之前的版本都很难画furry,v4可以画写实的兽人,v5除了写实兽人以外还可以画一些美漫风格的二次元福瑞。niji和MJ唯二缺点是要花钱和不能画涩图。
|
|
|
|
| 18 |
另外我们前面说的**Dall·E2**也是可以完美画福瑞的,生成质量不差,只是Dall·E2的功能相比SD和MJ显得太少了,而且同样是收费,Dall·E2在OpenAI官网的服务比MJ贵多了。但是因为背靠微软金主,我们现在也能用上免费的Dall·E2了。微软在23年二月推出了基于Dall·E2的**Bing Image Creator**,它和Dall·E2的算法是一样的,只要你登陆微软账号就能无限白嫖。
|
|
|
|
| 19 |
总结一下,现阶段有niji/MJ、Bing Image Creator和SD上的各种模型能画furry。那他们都有什么特点呢?要怎么选择呢?
|
| 20 |
|
| 21 |
### 二、该选择哪一种工具
|
|
|
|
| 7 |
## 0基础入门篇(必读!!!)
|
| 8 |
### 一、纯纯的入门介绍(必读)
|
| 9 |
总的来说,能画furry的AI有三个大类,一个是由开源的**stable diffusion框架二次开发**出来的数不胜数的模型,一个是**Midjourney和它的变种niji·journey**,还有一个是和ChatGPT师出同门的**Dall·E2和微软版本的Bing Image Creator**。分别简略介绍一下。
|
| 10 |
+
|
| 11 |
AI绘画的进步发生在22年,diffusion算法的相比于之前的GAN算法有了翻天覆地的性能提升,之后框架模型都吸纳了diffusion算法。于是4月OpenAI发布Dall·E2,5月Midjourney内测,7月stable diffusion开源。
|
| 12 |
+
|
| 13 |
22年暑假stable diffusion框架开源(stable diffusion在下文简称SD),由两个公司开发公布,由于开源免费高度自定义迅速占领市场,随后基于SD魔改的模型井喷式爆发。
|
| 14 |
+
|
| 15 |
SD实际上分为两部分SD的框架和模型:常见的框架GUI有**WebUI**、naifu和ComfyUI三种,前种都有数不胜数的魔改版和整合包,框架是各种环境、命令、功能、算法的集合;模型则是指的checkpoint或SafeTensor文件(也包括配套的vae等),是存储绘画的实际内容的地方,不同的模型可以画不同的内容。对于自己配置或本地的SD,一个模型可以在不同的框架下运行,一个框架也可以运行多个模型。原版SD由两个公司分别免费开源公布出WebUI和原版SD模型(原版模型不能画furry)。
|
| 16 |
+
|
| 17 |
SD有一个魔改版是NovelAI公司推出的,这个公司本来是研究写小说的AI的,看到绘画赚钱也来分一杯羹,拿着别人免费开源的SD开发出自己的版本。他们开发出了naifu框架和自己的furry模型(兽人控的钱真好赚)。他们早期版本**animefull模型和naifu框架**(22年十月初)“被黑客”泄露出来,效果还不错,于是有些人就开始花钱直接到他们官网上使用他们的服务。**注意!很多人不能区分animefull等模型和naifu框架,都管他们叫NovelAI,在交流上造成很大困扰!**
|
| 18 |
+
|
| 19 |
SD有几百种furry模型,其中分为通用的几种和他们不同的版本或epoch,还有上百款针对单个furry角色定制的模型。
|
| 20 |
+
|
| 21 |
SD开源,自己配置麻烦,门槛高,下限低上限高,想要什么模型都可以自己炼,没有任何限制。**炼!都可以炼!**
|
| 22 |
+
|
| 23 |
现阶段除了MJ和它的变体niji以外,几乎市面上所有的全部都是SD,所有你能搜到的小程序、软件都是包装好的魔改的SD,这些大多数都是不能画furry的(加载animefull或者anything和基于any融合的或许可以,但是效果不一定好)。
|
| 24 |
+
|
| 25 |
还有的就是Midjourney的变种niji·journey了,Midjourney(简称MJ)是22年5月发布,主打写实和艺术绘画,随后waifu diffusion的开发团队加入进来合作开发了niji·journey(下文简称niji)。niji主打二次元AI绘画,也可以画furry,且上手简单不用配置,普遍效果好。MJ在v4之前的版本都很难画furry,v4可以画写实的兽人,v5除了写实兽人以外还可以画一些美漫风格的二次元福瑞。niji和MJ唯二缺点是要花钱和不能画涩图。
|
| 26 |
+
|
| 27 |
另外我们前面说的**Dall·E2**也是可以完美画福瑞的,生成质量不差,只是Dall·E2的功能相比SD和MJ显得太少了,而且同样是收费,Dall·E2在OpenAI官网的服务比MJ贵多了。但是因为背靠微软金主,我们现在也能用上免费的Dall·E2了。微软在23年二月推出了基于Dall·E2的**Bing Image Creator**,它和Dall·E2的算法是一样的,只要你登陆微软账号就能无限白嫖。
|
| 28 |
+
|
| 29 |
总结一下,现阶段有niji/MJ、Bing Image Creator和SD上的各种模型能画furry。那他们都有什么特点呢?要怎么选择呢?
|
| 30 |
|
| 31 |
### 二、该选择哪一种工具
|