Пожелания и планы на будущее

Эксперименты с Midjourney, ChatGPT, Gemini, Claude, DALL-E, Stable Diffusion и Pika
elpresidente*
Site Admin
Reactions: 854
Сообщения: 2924
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

https://ai.google.dev/pricing
Gemini1.0.pro.png
Gemini1.0.pro.png (172.39 КБ) 184 просмотра
Gemini1.5.pro.png
Gemini1.5.pro.png (170.94 КБ) 184 просмотра
elpresidente*
Site Admin
Reactions: 854
Сообщения: 2924
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

👆
kyk писал(а): Ср апр 17, 2024 3:17 pm Исходя из сообщения выше получается что, начиная с 2 мая, бесплатного не будет вобще? А будет pay-as-you-go
Free вроде никуда не денется, pay-as-you-go это для тех кто будет использовать в production и не хочет делится своими данными.

Мне не нравится что в варианте REST API https://ai.google.dev/tutorials/rest_quickstart необходимо каждый раз пересылать всю историю (context) что будет проблематичено при обработке больших запросов в случае с 1.5, хотелось бы чтобы они делали сессию и держали весь context у себя :)

У меня уже есть доступ к 1.5 https://generativelanguage.googleapis.c ... ?key={{key}}

Код: Выделить всё

        {
            "name": "models/gemini-1.5-pro-latest",
            "version": "001",
            "displayName": "Gemini 1.5 Pro",
            "description": "Mid-size multimodal model that supports up to 1 million tokens",
            "inputTokenLimit": 1048576,
            "outputTokenLimit": 8192,
            "supportedGenerationMethods": [
                "generateContent",
                "countTokens"
            ],
            "temperature": 1,
            "topP": 0.95
        },
Причем 1.5 это multimodal модель и она поддерживает conversation context, вот хороший пример


Думаю можно попробовать добавить такого бота на сайт.
elpresidente*
Site Admin
Reactions: 854
Сообщения: 2924
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

Большие media файлы можно закачивать с помощью File API https://ai.google.dev/api/rest/v1beta/files
The File API lets you store up to 20GB of files per project, with each file not exceeding 2GB in size. Files are stored for 48 hours and can be accessed with your API key for generation within that time period. It is available at no cost in all regions where the Gemini API is available.
Prompting with media files https://ai.google.dev/tutorials/prompting_with_media
kyk
Reactions: 446
Сообщения: 6127
Зарегистрирован: Ср июн 15, 2022 6:54 pm

Re: Пожелания и планы на будущее

Сообщение kyk »

На данный момент, как соотносятся Gemini 1.5 и ChatGpt-4 API по "уровню интеллекта" если им обоим дать одинаковый контекст, скажем, 32,000 ?

И вот еще интересно:
kyk
Reactions: 446
Сообщения: 6127
Зарегистрирован: Ср июн 15, 2022 6:54 pm

Re: Пожелания и планы на будущее

Сообщение kyk »

elpresidente* писал(а): Ср апр 17, 2024 4:46 pm Мне не нравится что в варианте REST API https://ai.google.dev/tutorials/rest_quickstart необходимо каждый раз пересылать всю историю (context) ..

<skip>
Причем 1.5 это multimodal модель и она поддерживает conversation context, вот хороший пример
"поддерживает conversation context" --это Вы имеете ввиду следущее ? :

Код: Выделить всё

model = genai.GenerativeModel('gemini-pro')
chat = model.start_chat(history=[])

response = chat.send_message("In one sentence, explain how a computer works to a young child.")

response = chat.send_message("Okay, how about a more detailed explanation to a high schooler?")
Т.е. вся историю (context) сохраняется в 'chat.history' при многократном "response = chat.send_message()"

Насколько понимаю, в отличие от Gemini выше, у Claude 3 пока ещё нет опции "Сhat"
Claude 3 : The Messages API is stateless, which means that you always send the full conversational history to the API.
https://docs.anthropic.com/claude/refer ... s-examples
elpresidente*
Site Admin
Reactions: 854
Сообщения: 2924
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

kyk писал(а): Вт апр 30, 2024 7:21 pm На данный момент, как соотносятся Gemini 1.5 и ChatGpt-4 API по "уровню интеллекта" если им обоим дать одинаковый контекст, скажем, 32,000 ?
Размер контекста важен при обработке запросов но не определят качество модели.
elpresidente*
Site Admin
Reactions: 854
Сообщения: 2924
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

kyk писал(а): Вт апр 30, 2024 7:33 pm "поддерживает conversation context" --это Вы имеете ввиду следущее ? :
Все API поддерживают conversation context (history).
Пример для Gemini link, Claude и ChatGPT (OpenAPI) имеют практически тот-же самый формат.
Проблема в том что с большими файлами такой подход не будет работать, поэтому Google предлагает использовать File API.
Планирую добавить Gemini 1.5 multi modal с поддержкой больших файлов после того как Discord CDN будет стабильно работать, уже потратил на него несколько выходных, надеюсь доделать в этот викенд.
kyk
Reactions: 446
Сообщения: 6127
Зарегистрирован: Ср июн 15, 2022 6:54 pm

Re: Пожелания и планы на будущее

Сообщение kyk »

elpresidente* писал(а): Сб май 04, 2024 10:46 amВсе API поддерживают conversation context (history).
Я буду говорить только про Python implementation.

In Gemini chat, Gemini appears to remember (сохраняется на их сервере, с которым пользователь связывется через API) all conversation context (history). И это круто!

К сожалению, в случае OpenAi и Сlaude, насколько я понимаю, conversation context (history) не сохраняется внутри модели (т.е.не сохраняется на их сервере, с которым пользователь связывется через API).

Пример с OpenAI API
The OpenAI API does support multi-turn conversations using the client.chat.completions.create() method. This function is designed specifically for chat-based interactions, enabling the model to keep track of and respond appropriately within the context of an ongoing conversation.

To properly use this in a multi-turn conversation, you need to manage and pass a sequence of message objects. Each message object represents one turn in the conversation, either by the user or by the system (assistant). You can continue adding new user inputs and receive responses in context by maintaining this list of messages.

Код: Выделить всё

messages = [{"role": "system",
             "content": "You are a data science tutor who provides short, simple explanations."}]

user_qs = ["Why is Python so popular?", "Summarize this in one sentence."]

for q in user_qs:
    print("User: ", q)
    user_dict = {"role": "user", "content": q}
    messages.append(user_dict)
    
    response = client.chat.completions.create(
    model="gpt-4",
    messages=messages
    )
    
    assistant_dict = {"role": "assistant", "content": response.choices[0].message.content}
    messages.append(assistant_dict)
    print("Assistant: ", response.choices[0].message.content, "\n")
В этом примере "messages" хранится и обновляется снаружи, а не внутри модели (т.е. не хранится на их севере).
То же самое, как я понимаю, и с Claude.

Я правильно понимаю?
Ответить