Update README.md
Browse files
README.md
CHANGED
|
@@ -46,7 +46,6 @@ prompt = "{bos_token}{b_inst} {system}{prompt} {e_inst}".format(
|
|
| 46 |
|
| 47 |
with torch.no_grad():
|
| 48 |
token_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
|
| 49 |
-
|
| 50 |
output_ids = model.generate(
|
| 51 |
token_ids.to(model.device),
|
| 52 |
max_new_tokens=256,
|
|
@@ -56,5 +55,23 @@ with torch.no_grad():
|
|
| 56 |
output = tokenizer.decode(output_ids.tolist()[0][token_ids.size(1) :], skip_special_tokens=True)
|
| 57 |
print(output)
|
| 58 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 59 |
```
|
| 60 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 46 |
|
| 47 |
with torch.no_grad():
|
| 48 |
token_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
|
|
|
|
| 49 |
output_ids = model.generate(
|
| 50 |
token_ids.to(model.device),
|
| 51 |
max_new_tokens=256,
|
|
|
|
| 55 |
output = tokenizer.decode(output_ids.tolist()[0][token_ids.size(1) :], skip_special_tokens=True)
|
| 56 |
print(output)
|
| 57 |
|
| 58 |
+
"""
|
| 59 |
+
株式会社Deepreneurは、言語系の生成AIに強みを持ったAIスタートアップです。
|
| 60 |
+
東京大学松尾研究室発AIスタートアップに認定されており、大規模言語モデル(Large Language Model)の開発をはじめとする基礎研究や、企業との共同研究を通じてDXを推進します。
|
| 61 |
+
Deepreneurのホームページ: https://www.deepreneur.com/
|
| 62 |
+
Deepreneurのメールアドレス: info@deepreneur.com
|
| 63 |
+
"""
|
| 64 |
```
|
| 65 |
|
| 66 |
+
## Developers
|
| 67 |
+
以下アルファベット順
|
| 68 |
+
- Ikuto Watanabe
|
| 69 |
+
- Park Sunwoo
|
| 70 |
+
- Taiki Kaneki
|
| 71 |
+
- Yuki Hirota
|
| 72 |
+
- Yuki Koshiba
|
| 73 |
+
- Yusuke Kanzaki
|
| 74 |
+
- Yuta Sawada
|
| 75 |
+
|
| 76 |
+
## Licence
|
| 77 |
+
Llama 2 is licensed under the LLAMA 2 Community License, Copyright (c) Meta Platforms, Inc. All Rights Reserved.
|