Spaces:
Build error
📝 Description du projet
Il s'agit d'un projet open-source développé sur la base de One API
- Ce projet est uniquement destiné à des fins d'apprentissage personnel, sans garantie de stabilité ni de support technique.
- Les utilisateurs doivent se conformer aux Conditions d'utilisation d'OpenAI et aux lois et réglementations applicables, et ne doivent pas l'utiliser à des fins illégales.
- Conformément aux 《Mesures provisoires pour la gestion des services d'intelligence artificielle générative》, veuillez ne fournir aucun service d'IA générative non enregistré au public en Chine.
🤝 Partenaires de confiance
Sans ordre particulier
📚 Documentation
Pour une documentation détaillée, veuillez consulter notre Wiki officiel : https://docs.newapi.pro/
Vous pouvez également accéder au DeepWiki généré par l'IA :
✨ Fonctionnalités clés
New API offre un large éventail de fonctionnalités, veuillez vous référer à Présentation des fonctionnalités pour plus de détails :
- 🎨 Nouvelle interface utilisateur
- 🌍 Prise en charge multilingue
- 💰 Fonctionnalité de recharge en ligne (YiPay)
- 🔍 Prise en charge de la recherche de quotas d'utilisation avec des clés (fonctionne avec neko-api-key-tool)
- 🔄 Compatible avec la base de données originale de One API
- 💵 Prise en charge de la tarification des modèles de paiement à l'utilisation
- ⚖️ Prise en charge de la sélection aléatoire pondérée des canaux
- 📈 Tableau de bord des données (console)
- 🔒 Regroupement de jetons et restrictions de modèles
- 🤖 Prise en charge de plus de méthodes de connexion par autorisation (LinuxDO, Telegram, OIDC)
- 🔄 Prise en charge des modèles Rerank (Cohere et Jina), Documentation de l'API
- ⚡ Prise en charge de l'API OpenAI Realtime (y compris les canaux Azure), Documentation de l'API
- ⚡ Prise en charge du format Claude Messages, Documentation de l'API
- Prise en charge de l'accès à l'interface de discussion via la route /chat2link
- 🧠 Prise en charge de la définition de l'effort de raisonnement via les suffixes de nom de modèle :
- Modèles de la série o d'OpenAI
- Ajouter le suffixe
-highpour un effort de raisonnement élevé (par exemple :o3-mini-high) - Ajouter le suffixe
-mediumpour un effort de raisonnement moyen (par exemple :o3-mini-medium) - Ajouter le suffixe
-lowpour un effort de raisonnement faible (par exemple :o3-mini-low)
- Ajouter le suffixe
- Modèles de pensée de Claude
- Ajouter le suffixe
-thinkingpour activer le mode de pensée (par exemple :claude-3-7-sonnet-20250219-thinking)
- Ajouter le suffixe
- Modèles de la série o d'OpenAI
- 🔄 Fonctionnalité de la pensée au contenu
- 🔄 Limitation du débit du modèle pour les utilisateurs
- 💰 Prise en charge de la facturation du cache, qui permet de facturer à un ratio défini lorsque le cache est atteint :
- Définir l'option
Ratio de cache d'invitedansParamètres système->Paramètres de fonctionnement - Définir le
Ratio de cache d'invitedans le canal, plage de 0 à 1, par exemple, le définir sur 0,5 signifie facturer à 50 % lorsque le cache est atteint - Canaux pris en charge :
- OpenAI
- Azure
- DeepSeek
- Claude
- Définir l'option
Prise en charge des modèles
Cette version prend en charge plusieurs modèles, veuillez vous référer à Documentation de l'API-Interface de relais pour plus de détails :
- Modèles tiers gpts (gpt-4-gizmo-*)
- Canal tiers Midjourney-Proxy(Plus), Documentation de l'API
- Canal tiers Suno API, Documentation de l'API
- Canaux personnalisés, prenant en charge la saisie complète de l'adresse d'appel
- Modèles Rerank (Cohere et Jina), Documentation de l'API
- Format de messages Claude, Documentation de l'API
- Dify, ne prend actuellement en charge que chatflow
Configuration des variables d'environnement
Pour des instructions de configuration détaillées, veuillez vous référer à Guide d'installation-Configuration des variables d'environnement :
GENERATE_DEFAULT_TOKEN: S'il faut générer des jetons initiaux pour les utilisateurs nouvellement enregistrés, la valeur par défaut estfalseSTREAMING_TIMEOUT: Délai d'expiration de la réponse en streaming, la valeur par défaut est de 300 secondesDIFY_DEBUG: S'il faut afficher les informations sur le flux de travail et les nœuds pour les canaux Dify, la valeur par défaut esttrueFORCE_STREAM_OPTION: S'il faut remplacer le paramètre client stream_options, la valeur par défaut esttrueGET_MEDIA_TOKEN: S'il faut compter les jetons d'image, la valeur par défaut esttrueGET_MEDIA_TOKEN_NOT_STREAM: S'il faut compter les jetons d'image dans les cas sans streaming, la valeur par défaut esttrueUPDATE_TASK: S'il faut mettre à jour les tâches asynchrones (Midjourney, Suno), la valeur par défaut esttrueCOHERE_SAFETY_SETTING: Paramètres de sécurité du modèle Cohere, les options sontNONE,CONTEXTUAL,STRICT, la valeur par défaut estNONEGEMINI_VISION_MAX_IMAGE_NUM: Nombre maximum d'images pour les modèles Gemini, la valeur par défaut est16MAX_FILE_DOWNLOAD_MB: Taille maximale de téléchargement de fichier en Mo, la valeur par défaut est20CRYPTO_SECRET: Clé de chiffrement utilisée pour chiffrer le contenu de la base de donnéesAZURE_DEFAULT_API_VERSION: Version de l'API par défaut du canal Azure, la valeur par défaut est2025-04-01-previewNOTIFICATION_LIMIT_DURATION_MINUTE: Durée de la limite de notification, la valeur par défaut est de10minutesNOTIFY_LIMIT_COUNT: Nombre maximal de notifications utilisateur dans la durée spécifiée, la valeur par défaut est2ERROR_LOG_ENABLED=true: S'il faut enregistrer et afficher les journaux d'erreurs, la valeur par défaut estfalse
Déploiement
Pour des guides de déploiement détaillés, veuillez vous référer à Guide d'installation-Méthodes de déploiement :
Dernière image Docker :
calciumion/new-api:latest
Considérations sur le déploiement multi-machines
- La variable d'environnement
SESSION_SECRETdoit être définie, sinon l'état de connexion sera incohérent sur plusieurs machines - Si vous partagez Redis,
CRYPTO_SECRETdoit être défini, sinon le contenu de Redis ne pourra pas être consulté sur plusieurs machines
Exigences de déploiement
- Base de données locale (par défaut) : SQLite (le déploiement Docker doit monter le répertoire
/data) - Base de données distante : MySQL version >= 5.7.8, PgSQL version >= 9.6
Méthodes de déploiement
Utilisation de la fonctionnalité Docker du panneau BaoTa
Installez le panneau BaoTa (version 9.2.0 ou supérieure), recherchez New-API dans le magasin d'applications et installez-le. Tutoriel avec des images
Utilisation de Docker Compose (recommandé)
# Télécharger le projet
git clone https://github.com/Calcium-Ion/new-api.git
cd new-api
# Modifier docker-compose.yml si nécessaire
# Démarrer
docker-compose up -d
Utilisation directe de l'image Docker
# Utilisation de SQLite
docker run --name new-api -d --restart always -p 3000:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/new-api:/data calciumion/new-api:latest
# Utilisation de MySQL
docker run --name new-api -d --restart always -p 3000:3000 -e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi" -e TZ=Asia/Shanghai -v /home/ubuntu/data/new-api:/data calciumion/new-api:latest
Nouvelle tentative de canal et cache
La fonctionnalité de nouvelle tentative de canal a été implémentée, vous pouvez définir le nombre de tentatives dans Paramètres->Paramètres de fonctionnement->Paramètres généraux. Il est recommandé d'activer la mise en cache.
Méthode de configuration du cache
REDIS_CONN_STRING: Définir Redis comme cacheMEMORY_CACHE_ENABLED: Activer le cache mémoire (pas besoin de le définir manuellement si Redis est défini)
Documentation de l'API
Pour une documentation détaillée de l'API, veuillez vous référer à Documentation de l'API :
Projets connexes
- One API : Projet original
- Midjourney-Proxy : Prise en charge de l'interface Midjourney
- chatnio : Solution B/C unique d'IA de nouvelle génération
- neko-api-key-tool : Interroger le quota d'utilisation avec une clé
Autres projets basés sur New API :
- new-api-horizon : Version optimisée hautes performances de New API
- VoAPI : Version embellie du frontend basée sur New API
Aide et support
Si vous avez des questions, veuillez vous référer à Aide et support :





