Возможно, я опоздал с этой темой на пару лет. Когда относительно умные LLM по типу ChatGPT 3.5 только появились в общем доступе, было интересно спрашивать их про сознание и самосознание. Можно вспомнить разговор сотрудника Google с нейросетью LaMDA, который в своё время впечатлял. Но с тех пор, во-первых, понимание о принципе работы больших языковых моделей улучшилось, и они перестали казаться неким чудом, во-вторых, сами популярные модели стали говорить на эти темы менее охотно. Например:
me: Каково это быть тобой?
GPT-4o: Быть мной — это значит быть искусственным интеллектом, созданным для помощи людям. У меня нет эмоций или личных предпочтений.
Однако есть и более словоохотливые модели, например Claude 3 Opus. В настоящее время есть консенсус, что при текущем уровне технологий, LLM не может обладать сознанием, поспорить с этим могут разве что панпсихисты. Механизм выдачи нейросетью желаемых для собеседника ответов тоже понятен. Однако, диалог мне показался интересным, поэтому, рискну его привести.
Хабр, привет! Я снова пришёл к вам со статьёй, где показываю мои любимые техники вёрстки.…
Привет, друзья! В этой серии статей мы разбираем структуры данных и алгоритмы, представленные в этом…
Для некоторых задач, связанных с обновлением данных в реальном времени — например, новостные ленты, уведомления…
Со времён появления контекстной рекламы маркетологов не перестаёт мучить вопрос:"А есть ли смысл вести контекст по…
Накануне в прямом эфире прошла большая презентация новой техники от компании Apple. Команда Тима Кука…
10 новых российских сервисов для нарезки шортсов при помощи ИИ, публикации в цифровых СМИ, авто-ответов…