๐ AWA-40M (Ahmad Wildan Ardiansyah) - Version 2 (Full Daging)
AWA adalah model bahasa Micro-LLM eksperimental yang merepresentasikan versi AI dari Ahmad Wildan Ardiansyah. Setelah melalui proses training yang intens, model ini sekarang telah mencapai titik kematangan di 33 Epoch.
๐ง Update Terbaru (V2):
- Training Duration: 33 Epochs (Full Cycle Completed) โ
- Optimization: Improved logic for Science, Philosophy, and Nusantara culture.
- Format: GGUF (FP32) for maximum compatibility.
๐ Spesifikasi Model:
- Arsitektur: GPT-2 (Custom Configuration)
- Parameter: ~40-42 Million
- Layers: 12
- Attention Heads: 8
- Embedding Dim: 512
- Context Length: 1024 tokens
- Training Status: Phase 2 (33 Epochs) - STABLE
๐ฎ๐ฉ Karakteristik Dataset:
AWA dilatih menggunakan dataset yang dikurasi langsung oleh Ahmad Wildan Ardiansyah, mencakup:
- Sains & Teknologi: Relativitas, CRISPR, IT/CS, Entropi.
- Ekonomi & Geopolitik: Ekonometrika, Teori Game.
- Filsafat & Psikologi: Fenomenologi, Eksistensialisme, Logika Formal.
- Kekayaan Nusantara: Sejarah Majapahit, Sriwijaya, dan Kearifan Lokal.
โ๏ธ Cara Pakai (Format GGUF):
Gunakan file AWA-40M-Daging-V2-F32.gguf di aplikasi favorit Bos:
- LM Studio
- GPT4All
- Layla/Maid (Android/iOS)
Dibuat dengan visi dan semangat oleh Ahmad Wildan Ardiansyah! ๐ฅ
- Downloads last month
- 67
Hardware compatibility
Log In
to add your hardware
32-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
๐
Ask for provider support