На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Егор Горшков
    А почему бы и да, как говорится.Храните биткоины ...
  • Цуркан Арк
    Сказки, на три недели, а потом полгода жечь щепу?В Финляндии подкл...
  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...

Стартап Ильи Суцкевера привлек еще $1 млрд при оценке $30 млрд

Суцкевер — один из ведущих специалистов в сфере ИИ, и его имя связано с основными достижениями в этой области, поэтому его авторитета достаточно, чтобы привлекать серьёзные инвестиции. В качестве ведущего ученого OpenAI Суцкевер внес значительный вклад в создание и развитие технологий, которые лежат в основе моделей ChatGPT.

Его работа с алгоритмами глубокого обучения и развитием искусственного интеллекта сделала его одним из самых уважаемых исследователей в этой сфере.

В проекте Safe Superintelligence участвуют также Дэниел Леви и Дэниел Гросс, бывшие сотрудники OpenAI и Apple AI. Компания, не получающая дохода на текущий момент, заявляет, что не будет продавать ИИ-продукты в ближайшие годы. Вместо этого она сосредоточится на разработке технологий, направленных на создание безопасного и этичного искусственного интеллекта.

Компания уже привлекла средства от крупных венчурных фондов, таких как Sequoia Capital, Andreessen Horowitz и DST Global. На данный момент, сумма привлеченных Safe Superintelligence средств https://techcrunch.com/2025/02/18/safe-superintelligence-ily... примерно $1,5 млрд. Привлеченные инвестиции должны поддержать дальнейшую разработку и исследования в области ИИ.

Суцкевер покинул OpenAI в мае 2024 года. Точные причины его ухода не уточнялись. И Сэм Альтман, и сам Илья сказали, что пришло время двигаться дальше, а бывший ведущий научный сотрудник решил сосредоточиться на собственных проектах. Однако журналисты https://www.wsj.com/tech/ai/ilya-sutskever-the-openai-genius... утверждали, что причиной ссоры основателей OpenAI стало халатное отношение Альтмана к мерам безопасности.

Ещё в 2022 Суцкевер говорил, что сверхмощный ИИ может начать относиться к людям так, как мы относимся к животным, и эта перспектива пугает его. В прессе также утверждали, что увольнение Суцкевера могло быть местью Альтмана за ведущую роль Ильи в несостоявшейся отставке основателя.

Чем именно занимается Safe Superintelligence неясно. https://ssi.inc/ очень лаконичен и содержит лишь общее описание: "Безопасный сверхразум — это наша миссия, наше имя и вся наша дорожная карта продукта, потому что это наш единственный фокус. Наша команда, инвесторы и бизнес-модель — все направлено на достижение безопасного сверхпроизводительного ИИ. Наша единая направленность означает отсутствие отвлекающих факторов, таких как управленческие расходы или циклы производства, а наша бизнес-модель подразумевает, что безопасность, надежность и прогресс не зависят от краткосрочного коммерческого давления".

Суцкевер и другие эксперты в области ИИ часто подчеркивают, что с развитием технологий искусственного интеллекта важно предусмотреть меры по предотвращению возможных рисков. Сверхмощный ИИ может вырваться за пределы человеческого контроля и представлять опасность, если его не ограничить специальными принципами безопасности. Поэтому в Safe Superintelligence, возможно, работают над тем, чтобы создать такие методы контроля, а не над самим сверхпроизводительным ИИ.

 

Ссылка на первоисточник
наверх
Новости СМИ2