Эксперт назвал главную проблему ИИ DeepSeek. Но с ней можно смириться

 
4839
14 февраля 2025 в 15:32

Главной проблемой китайской ИИ-модели DeepSeek, которая наделала шуму в мировом пространстве, назвали низкую скорость работы. Эксперимент поставил автор ресурса HackerNoon, который сравнил производительность DeepSeek и GPT-4o от OpenAI с помощью простого скрипта с промптами в трех сценариях.

В одном он использовал DeepSeek через платформу Nebius, во втором — оригинальный API, в третьем запускал скрипт в GPT‑4o, замеряя скорость реакции моделей. Выяснилось, что быстрее работает DeepSeek через Nebius со средней скоростью ответа в 10,4 секунды (с результатами по трем замерам 6,95 секунды, 11,8 и 12,44). Во втором сценарии средняя скорость ответа составила 19,8 секунды.

Для сравнения: GPT-4o отвечал намного быстрее — в среднем за 4,2 секунды.

Правда, у DeepSeek есть свой козырь: стоимость, которая значительно ниже. Так, миллион токенов для кодирования запроса (Input Tokens) обходится в $0,27, вывода данных (Output Tokens) — $1,1 за миллион. У GPT-4o ценник выше: $2,5 и $10 соответственно. Согласно подсчетам автора, разница — в девять раз, что делает китайскую ИИ-модель интересной для тех, кому скорость обработки данных менее важна, чем затраты.

16 ГБ GDDR7, 2300 МГц / 2617 МГц, 10752sp, 84 RT-ядер, трассировка лучей, 256 бит, 3.5 слота, питание 16 pin (PCIe Gen5), HDMI, DisplayPort
Выбор покупателей
Onlíner рекомендует
8 ГБ GDDR6, 1830 МГц / 2670 МГц, 3072sp, 24 RT-ядер, трассировка лучей, 128 бит, 2 слота, питание 8 pin, HDMI, DisplayPort

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро