๐Ÿš€ AWA-40M (Ahmad Wildan Ardiansyah) - Version 2 (Full Daging)

AWA adalah model bahasa Micro-LLM eksperimental yang merepresentasikan versi AI dari Ahmad Wildan Ardiansyah. Setelah melalui proses training yang intens, model ini sekarang telah mencapai titik kematangan di 33 Epoch.

๐Ÿง  Update Terbaru (V2):

  • Training Duration: 33 Epochs (Full Cycle Completed) โœ…
  • Optimization: Improved logic for Science, Philosophy, and Nusantara culture.
  • Format: GGUF (FP32) for maximum compatibility.

๐Ÿ“Š Spesifikasi Model:

  • Arsitektur: GPT-2 (Custom Configuration)
  • Parameter: ~40-42 Million
  • Layers: 12
  • Attention Heads: 8
  • Embedding Dim: 512
  • Context Length: 1024 tokens
  • Training Status: Phase 2 (33 Epochs) - STABLE

๐Ÿ‡ฎ๐Ÿ‡ฉ Karakteristik Dataset:

AWA dilatih menggunakan dataset yang dikurasi langsung oleh Ahmad Wildan Ardiansyah, mencakup:

  1. Sains & Teknologi: Relativitas, CRISPR, IT/CS, Entropi.
  2. Ekonomi & Geopolitik: Ekonometrika, Teori Game.
  3. Filsafat & Psikologi: Fenomenologi, Eksistensialisme, Logika Formal.
  4. Kekayaan Nusantara: Sejarah Majapahit, Sriwijaya, dan Kearifan Lokal.

โš™๏ธ Cara Pakai (Format GGUF):

Gunakan file AWA-40M-Daging-V2-F32.gguf di aplikasi favorit Bos:

  1. LM Studio
  2. GPT4All
  3. Layla/Maid (Android/iOS)

Dibuat dengan visi dan semangat oleh Ahmad Wildan Ardiansyah! ๐Ÿ”ฅ

Downloads last month
67
GGUF
Model size
50.3M params
Architecture
gpt2
Hardware compatibility
Log In to add your hardware

32-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support