gemini-2.0-flash

Neural Network

Beep-boop, writing text for you...
pc1pc2pc3pc4
Main

/

Models

/

gemini-2.0-flash
32 000

Max answer length

(in tokens)

200 000

Context size

(in tokens)

15 714,29

Prompt cost

(per 1M tokens)

15 714,29

Answer cost

(per 1M tokens)

15,71

Image prompt

(per 1K tokens)

*Prices for using the API.
Обзор
Провайдеры
API
bothub
BotHub: Попробуйте чат GPT бесплатноbot

Осталось Caps: 0 CAPS
Providers gemini-2.0-flashOn Bothub, you can select your own providers for requests. If you haven't made a selection, we will automatically find suitable providers who can handle the size and parameters of your request.
Пример кода и API для gemini-2.0-flashМы предлагаем полный доступ к API OpenAI через наш сервис. Все наши конечные точки полностью соответствуют конечным точкам OpenAI, их можно использовать как с плагинами, так и при разработке собственного программного обеспечения через SDK.Создать API ключ
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://openai.bothub.chat/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gemini-2.0-flash',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gemini-2.0-flash',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();

How it works Gemini 2.0 Flash?

Bothubs gather information...empty