- Сообщения
- 6.111
- Реакции
- 11.946
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
последнее воплощение большой языковой модели, которая поддерживает популярный чат-бот ChatGPT. Компания заявляет, что GPT-4 содержит большие улучшения — он уже ошеломил людей своей способностью создавать текст, похожий на человеческий, и генерировать изображения и компьютерный код практически из любого запроса. Исследователи говорят, что эти способности потенциально могут трансформировать науку, но некоторые разочарованы тем, что они пока не могут получить доступ к технологии, лежащему в ее основе коду или информации о том, как она была обучена. Это вызывает озабоченность по поводу безопасности технологии и делает ее менее полезной для исследований, говорят ученые.Одно из обновлений GPT-4, выпущенное 14 марта, заключается в том, что теперь он может обрабатывать изображения так же, как и текст. И в качестве демонстрации своего языкового мастерства Open AI, базирующийся в Сан-Франциско, штат Калифорния, сообщает, что он сдал юридический экзамен в коллегию адвокатов США с результатами в девяностом центиле по сравнению с десятым центилем для предыдущей версии ChatGPT. Но технология еще не получила широкого доступа — доступ к ChatGPT пока имеют только платные подписчики.
“На данный момент существует список ожидания, поэтому вы не можете воспользоваться им прямо сейчас”, — говорит Эви-Энн ван Дис, психолог из Амстердамского университета. Но она видела демо-версии GPT-4. “Мы посмотрели несколько видеороликов, в которых они демонстрировали свои способности, и это сногсшибательно”, — говорит она. По ее словам, одним из примеров был нарисованный от руки дудл веб-сайта, который GPT-4 использовал для создания компьютерного кода, необходимого для создания этого веб-сайта, в качестве демонстрации способности обрабатывать изображения в качестве входных данных.
Но научное сообщество разочаровано секретностью OpenAI в отношении того, как и на каких данных была обучена модель и как она на самом деле работает. “Все эти модели с закрытым исходным кодом, по сути, являются тупиком в науке”, — говорит Саша Луччиони, ученый-исследователь, специализирующийся на климате в HuggingFace, сообществе искусственного интеллекта с открытым исходным кодом. “Они [OpenAI] могут продолжать развивать свои исследования, но для сообщества в целом это тупик”.
Тестирование ‘Красной команды’
Эндрю Уайт, инженер-химик из Университета Рочестера, получил привилегированный доступ к GPT-4 в качестве "члена красной команды": человека, которому OpenAI заплатил за тестирование платформы, чтобы попытаться заставить ее делать что-то плохое. По его словам, он имел доступ к GPT-4 в течение последних шести месяцев. “На начальном этапе процесса это не казалось чем-то особенным” по сравнению с предыдущими итерациями.
Он задавал боту запросы о том, какие этапы химических реакций необходимы для получения соединения, прогнозировал выход реакции и выбирал катализатор. “Поначалу я действительно не был так впечатлен”, — говорит Уайт. “Это было действительно удивительно, потому что это выглядело бы так реалистично, но здесь это вызвало бы галлюцинации атома. Это означало бы пропустить там один шаг”, — добавляет он. Но когда в рамках своей работы в красной команде он предоставил GPT-4 доступ к научным работам, все резко изменилось. “Это заставило нас понять, что эти модели, возможно, не так уж хороши сами по себе. Но когда вы начинаете подключать их к Интернету к таким инструментам, как планировщик ретросинтеза или калькулятор, внезапно появляются новые возможности ”.
И вместе с этими способностями приходят опасения. Например, может ли GPT-4 допускать производство опасных химических веществ? По словам Уайта, с помощью таких людей, как Уайт, инженеры OpenAI внесли изменения в свою модель, чтобы препятствовать GPT-4 создавать опасный, незаконный или вредный контент.
Фальшивые факты
Вывод ложной информации — еще одна проблема. Луччиони говорит, что такие модели, как GPT-4, которые существуют для предсказания следующего слова в предложении, нельзя вылечить от придумывания фальшивых фактов, известных как галлюцинации. “Вы не можете полагаться на такие модели, потому что в них много галлюцинаций”, — говорит она. И это остается проблемой в последней версии, говорит она, хотя OpenAI утверждает, что он улучшил безопасность в GPT-4.
Без доступа к данным, используемым для обучения, гарантии OpenAI в отношении безопасности не соответствуют требованиям Luccioni. “Вы не знаете, что это за данные. Так что вы не можете его улучшить. Я имею в виду, что просто совершенно невозможно заниматься наукой с такой моделью, как эта”, — говорит она.
Загадка о том, как был обучен GPT-4, также беспокоит коллегу ван Диса из Амстердама, психолога Клауди Боктинга. “Человеку очень трудно нести ответственность за то, что ты не можешь контролировать”, — говорит она. “Одна из проблем заключается в том, что они могут быть гораздо более предвзятыми, чем, например, предвзятость, присущая самим людям”. Луччиони объясняет, что без доступа к коду, лежащему в основе GPT-4, невозможно увидеть, откуда могло возникнуть смещение, или исправить его.
Дискуссии по этике
Боктинг и ван Дис также обеспокоены тем, что все чаще эти системы искусственного интеллекта принадлежат крупным технологическим компаниям. Они хотят убедиться, что технология должным образом протестирована и проверена учеными. “Это также возможность, потому что сотрудничество с крупными технологиями, конечно, может ускорить процессы”, — добавляет она.
Ранее в этом году Ван Дис, Боктинг и их коллеги утверждали, что необходимо срочно разработать набор «живых» руководящих принципов, регулирующих использование и разработку ИИ и таких инструментов, как GPT-4. Они обеспокоены тем, что любое законодательство, касающееся технологий искусственного интеллекта, будет с трудом поспевать за темпами развития. Боктинг и ван Дис созвали приглашенный саммит в Амстердамском университете 11 апреля, чтобы обсудить эти проблемы с представителями таких организаций, как комитет ЮНЕСКО по научной этике, Организация экономического сотрудничества и развития и Всемирный экономический форум.
Несмотря на беспокойство, GPT-4 и его будущие итерации встряхнут науку, говорит Уайт. “Я думаю, что на самом деле это будет огромное инфраструктурное изменение в науке, почти как Интернет был большим изменением”, — говорит он. Это не заменит ученых, добавляет он, но может помочь в решении некоторых задач. “Я думаю, мы начнем понимать, что можем соединять документы, программы обработки данных, библиотеки, которые мы используем, и вычислительную работу или даже роботизированные эксперименты”.
Если вы хотите подписаться на обновления статей в разделе,
то напишите об этом в комментариях или подпишитесь на
Neural Network или Aintelligence
то напишите об этом в комментариях или подпишитесь на
Neural Network или Aintelligence
Чтобы задать вопрос, предложить тему для публикации или высказать свое мнение,
то для этого создана тема
Высказывайте своё мнение и комментируйте ПО ТЕХНИЧЕСКОЙ ЧАСТИ И РАЗВИТИЮ ЯuToR Science, ваша позиция и оценка — очень важна для нас.
то для этого создана тема
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
Высказывайте своё мнение и комментируйте ПО ТЕХНИЧЕСКОЙ ЧАСТИ И РАЗВИТИЮ ЯuToR Science, ваша позиция и оценка — очень важна для нас.
Если вы хотите живого общения с другими членами сообщества,
и при этом получить возможность выиграть криптовалюту на свой кошелёк приглашаем вас в
Тема создана для свободного интеллектуального общения на любые темы!
и при этом получить возможность выиграть криптовалюту на свой кошелёк приглашаем вас в
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
Тема создана для свободного интеллектуального общения на любые темы!
Принимайте участие в наших неординарных, необычных и интересных конкурсах
вас ждет общение и большие денежные призы
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
вас ждет общение и большие денежные призы
Наш телеграм канал
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
и
Пожалуйста Войдите или Зарегистрируйтесь чтобы видеть скрытые ссылки.
Последнее редактирование модератором: