Главной проблемой китайской ИИ-модели DeepSeek, которая наделала шуму в мировом пространстве, назвали низкую скорость работы. Эксперимент поставил автор ресурса HackerNoon, который сравнил производительность DeepSeek и GPT-4o от OpenAI с помощью простого скрипта с промптами в трех сценариях.
В одном он использовал DeepSeek через платформу Nebius, во втором — оригинальный API, в третьем запускал скрипт в GPT‑4o, замеряя скорость реакции моделей. Выяснилось, что быстрее работает DeepSeek через Nebius со средней скоростью ответа в 10,4 секунды (с результатами по трем замерам 6,95 секунды, 11,8 и 12,44). Во втором сценарии средняя скорость ответа составила 19,8 секунды.
Для сравнения: GPT-4o отвечал намного быстрее — в среднем за 4,2 секунды.
Правда, у DeepSeek есть свой козырь: стоимость, которая значительно ниже. Так, миллион токенов для кодирования запроса (Input Tokens) обходится в $0,27, вывода данных (Output Tokens) — $1,1 за миллион. У GPT-4o ценник выше: $2,5 и $10 соответственно. Согласно подсчетам автора, разница — в девять раз, что делает китайскую ИИ-модель интересной для тех, кому скорость обработки данных менее важна, чем затраты.
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро