Еще один бесплатный конкурент ChatGPT-o1. А, возможно, и убийца...
Пока мы безуспешно пытаемся убедить аксакалов из Акорды вернуть нам потерянный час времени, а потом цокаем языками от раскрывшейся картины заговора КНБ-шников по январским событиям, а потом просто офигеваем от того, что понаписала у себя в Инсте Дана Орманбаева, — пришла новость из Китая.
Китайцы обновили предыдущую модель искусственного интеллекта DeepSeek-V3 до версии DeepSeek-R1, сотворив фактически мини-революцию в ИИ. Дело в том, что R1 — это первая «думающая» модель от китайцев, которая идет почти вровень с OpenAI o1. Но самое поразительное, что на обучение R1 было потрачено всего $6 млн (!).
Новость настолько потрясла инвесторов, что в пятницу акции самой дорогой в мире компании Nvidia присели на 3,12%, уронив капитализацию техногиганта на каких-то 110–112 млрд USD. Ведь именно на графических процессорах Nvidia держится сейчас весь западный сегмент ИИ, все эти ChatGPT и Copilot, которыми мы уже пользуемся также привычно, как зубной щеткой по утрам. А тут каким-то китайцам за сущие копейки удалось выдрессировать собственный ИИ до уровня OpenAI o1! Что закономерно подводит нас к вопросу — зачем все эти Гуглы и Фейсбуки тоннами закупают процессоры Nvidia, когда можно всё сварганить ценой одного среднего выходного бонуса, который в США выплачивают престарелым сеошникам и консультантам?
Кстати, китайцы временно открыли бесплатный доступ к DeepSeek-R1, поэтому вчера я изрядно помучил её, пытаясь понять, как этой серой мышке удалось потрясти рынки (по слухам, даже напугать Цукерберга). Так вот, мне модель понравилась. Она отлично переводит с английского на русский, умеет грамотно обобщать и структурировать тексты. Даже способна решить пресловутю загадку трех сестёр и одного брата, которая обычно вводит в ступор прежние, более слабые модели ИИ!
Попробовать DeepSeek-R1 можно по этой ссылке. Учитывайте, что при регистрации система запросит у вас код — для этого надо нажать соответствующую кнопку, чтобы получить код по почте. И еще, важно в самом чате не забыть нажать кнопку DeepSeek-R1, иначе вы будете по умолчанию работать на предыдущей версии DeepSeek-V3. И еще, модель временами лагает - сейчас весь мир сидит и тестит её.
Пока мы безуспешно пытаемся убедить аксакалов из Акорды вернуть нам потерянный час времени, а потом цокаем языками от раскрывшейся картины заговора КНБ-шников по январским событиям, а потом просто офигеваем от того, что понаписала у себя в Инсте Дана Орманбаева, — пришла новость из Китая.
Китайцы обновили предыдущую модель искусственного интеллекта DeepSeek-V3 до версии DeepSeek-R1, сотворив фактически мини-революцию в ИИ. Дело в том, что R1 — это первая «думающая» модель от китайцев, которая идет почти вровень с OpenAI o1. Но самое поразительное, что на обучение R1 было потрачено всего $6 млн (!).
Новость настолько потрясла инвесторов, что в пятницу акции самой дорогой в мире компании Nvidia присели на 3,12%, уронив капитализацию техногиганта на каких-то 110–112 млрд USD. Ведь именно на графических процессорах Nvidia держится сейчас весь западный сегмент ИИ, все эти ChatGPT и Copilot, которыми мы уже пользуемся также привычно, как зубной щеткой по утрам. А тут каким-то китайцам за сущие копейки удалось выдрессировать собственный ИИ до уровня OpenAI o1! Что закономерно подводит нас к вопросу — зачем все эти Гуглы и Фейсбуки тоннами закупают процессоры Nvidia, когда можно всё сварганить ценой одного среднего выходного бонуса, который в США выплачивают престарелым сеошникам и консультантам?
Кстати, китайцы временно открыли бесплатный доступ к DeepSeek-R1, поэтому вчера я изрядно помучил её, пытаясь понять, как этой серой мышке удалось потрясти рынки (по слухам, даже напугать Цукерберга). Так вот, мне модель понравилась. Она отлично переводит с английского на русский, умеет грамотно обобщать и структурировать тексты. Даже способна решить пресловутю загадку трех сестёр и одного брата, которая обычно вводит в ступор прежние, более слабые модели ИИ!
Попробовать DeepSeek-R1 можно по этой ссылке. Учитывайте, что при регистрации система запросит у вас код — для этого надо нажать соответствующую кнопку, чтобы получить код по почте. И еще, важно в самом чате не забыть нажать кнопку DeepSeek-R1, иначе вы будете по умолчанию работать на предыдущей версии DeepSeek-V3. И еще, модель временами лагает - сейчас весь мир сидит и тестит её.