- 🛠 Discord、Twitter、Telegramのフル機能コネクタ
- 👥 マルチエージェントおよびルームサポート
- 📚 ドキュメントの簡単な取り込みと対話
- 💾 検索可能なメモリおよびドキュメントストア
- 🚀 高い拡張性 - 機能を拡張するための独自のアクションとクライアントを作成可能
- ☁️ Llama、OpenAI、Anthropic、Groqなど、多くのモデルをサポート
- 📦 すぐに使える!
- 🤖 チャットボット
- 🕵️ 自律エージェント
- 📈 ビジネスプロセスの処理
- 🎮 ビデオゲームのNPC
必須条件:
- .env.exampleを.envにコピーし、適切な値を入力
- TWITTER環境変数を編集して、ボットのユーザー名とパスワードを追加
src/core/defaultCharacter.ts
ファイルを確認 - これを変更可能pnpm start --characters="path/to/your/character.json"
を使用してキャラクターをロードし、複数のボットを同時に実行可能
.envファイルとキャラクターファイルを設定した後、以下のコマンドでボットを起動可能:
pnpm i
pnpm start
コアディレクトリでのGitの競合を避けるために、カスタムアクションをcustom_actions
ディレクトリに追加し、それをelizaConfig.yaml
ファイルに追加することをお勧めします。例についてはelizaConfig.example.yaml
ファイルを参照してください。
XAI_MODEL
環境変数をmeta-llama/Meta-Llama-3.1-70B-Instruct-Turbo
またはmeta-llama/Meta-Llama-3.1-405B-Instruct
に設定することで、Llama 70Bまたは405Bモデルを実行可能
XAI_MODEL
環境変数をgrok-beta
に設定することで、Grokモデルを実行可能
XAI_MODEL
環境変数をgpt-4o-mini
またはgpt-4o
に設定することで、OpenAIモデルを実行可能
Sharpをインストールする必要があるかもしれません。起動時にエラーが表示された場合は、以下のコマンドでインストールを試みてください:
pnpm install --include=optional sharp
���まざまなプラットフォームに接続するために、.envファイルに環境変数を追加する必要があります:
# 必須環境変数
DISCORD_APPLICATION_ID=
DISCORD_API_TOKEN= # ボットトークン
OPENAI_API_KEY=sk-* # OpenAI APIキー、sk-で始まる
ELEVENLABS_XI_API_KEY= # elevenlabsからのAPIキー
# ELEVENLABS設定
ELEVENLABS_MODEL_ID=eleven_multilingual_v2
ELEVENLABS_VOICE_ID=21m00Tcm4TlvDq8ikWAM
ELEVENLABS_VOICE_STABILITY=0.5
ELEVENLABS_VOICE_SIMILARITY_BOOST=0.9
ELEVENLABS_VOICE_STYLE=0.66
ELEVENLABS_VOICE_USE_SPEAKER_BOOST=false
ELEVENLABS_OPTIMIZE_STREAMING_LATENCY=4
ELEVENLABS_OUTPUT_FORMAT=pcm_16000
TWITTER_DRY_RUN=false
TWITTER_USERNAME= # アカウントのユーザー名
TWITTER_PASSWORD= # アカウントのパスワード
TWITTER_EMAIL= # アカウントのメール
TWITTER_COOKIES= # アカウントのクッキー
X_SERVER_URL=
XAI_API_KEY=
XAI_MODEL=
# Claudeに質問するため
ANTHROPIC_API_KEY=
WALLET_PRIVATE_KEY=EXAMPLE_WALLET_PRIVATE_KEY
WALLET_PUBLIC_KEY=EXAMPLE_WALLET_PUBLIC_KEY
BIRDEYE_API_KEY=
SOL_ADDRESS=So11111111111111111111111111111111111111112
SLIPPAGE=1
RPC_URL=https://api.mainnet-beta.solana.com
HELIUS_API_KEY=
## Telegram
TELEGRAM_BOT_TOKEN=
TOGETHER_API_KEY=
NVIDIA GPUを持っている場合、CUDAをインストールしてローカル推論を大幅に高速化可能
pnpm install
npx --no node-llama-cpp source download --gpu cuda
CUDA Toolkit、cuDNN、cuBLASをインストールしていることを確認してください。
XAI_MODELを追加し、Llamaでの実行のオプションのいずれかに設定 - X_SERVER_URLとXAI_API_KEYを空白のままにしておくと、huggingfaceからモデルをダウンロードし、ローカルでクエリを実行します。
Discordボットの設定に関するヘルプについては、こちらを参照してください: https://discordjs.guide/preparations/setting-up-a-bot-application.html
テストスイートを実行するには:
pnpm test # テストを一度実行
pnpm test:watch # ウォッチモードでテストを実行
データベース固有のテストの場合:
pnpm test:sqlite # SQLiteでテストを実行
pnpm test:sqljs # SQL.jsでテストを実行
テストはJestを使用して記述されており、src/**/*.test.ts
ファイルにあります。テスト環境は次のように構成されています:
.env.test
から環境変数をロード- 長時間実行されるテストのために2分のタイムアウトを使用
- ESMモジュールをサポート
- テストを順番に実行 (--runInBand)
新しいテストを作成するには、テストするコードの隣に.test.ts
ファイルを追加します。