Модели крупных языков (LLMS) устанавливают опасные данные прецедента, вступая в эпоху искусственного интеллекта (ИИ). CHATGPT и другие генеративные платформы обучаются информации без согласия пользователя или компенсации, создавая значительные проблемы с авторским правом и владением. Вывод «новый», но вход был скопирован и вставлен из нераскрытых источников.
Это проблема прав данных, которую мы должны решить накануне агентов ИИ. Несмотря на обещание стать сверхчеловеческими помощниками в личных и профессиональных задачах, агенты не будут достойны доверия, если мы продолжим создавать черные ящики с небольшим уважением к интеллектуальной собственности.
Вместо этого, особенно в эти первые годы, мы должны предпочесть инфраструктуру, которая отслеживает информацию, распознает вклад и вознаграждает участников. Вот как мы учимся на ошибках CATGPT по данным и позволяем новой волне агентов работать с проверкой, разрешением и конфиденциальностью в их ядре.
LLMS устанавливает опасный прецедент данных
Даже когда контент, сгенерированный Claude, Chatgpt или Gemini, чувствует себя оригинальным, он фактически соскоблен из миллиардов точек данных без явного разрешения или последующей компенсации владельцам. Эти платформы, по сути, принимают защищенные авторским правом материалы, движутся вперед без согласия и не приписывают поиска.
Что еще хуже, мы обычно не знаем, как эти модели принимают решения. Они закрытыми исходными материалами, когда поступают данные, выходят команды и нулевую прозрачность в отношении того, что происходит между ними. Этот подход черного ящика создает как этические, так и практические проблемы.
Ранее я сравнивал модели с людьми в том, что они являются тем, что они едят. Если мы едим только нездоровую пищу, мы медленно и вялые. Если агенты потребляют только авторские права и подержанные материалы, они неточные, ненадежные и общие, а не конкретные. Их данные «диета» определяют производительность, и мы не можем ожидать качественных результатов от систем, основанных на проблемных входах.
Новая эра нуждается в новом подходе. У агентов искусственного интеллекта есть шанс испечь права на данные с первого дня, используя блокчейн для отслеживания информации и сильной инфраструктуры данных для определения его использования. Создавая проникновение данных и уважение к фондам, мы можем вооружать агенты с согласия и привлекать пользователей по значению, которые она генерирует.
Строительство данных с помощью инфраструктуры
Хорошей новостью является то, что еще не поздно изменить статус -кво данных. Появляются три технические ограждения, чтобы гарантировать, что поведение агента движется к прозрачной инфраструктуре и улучшению прав на данные.
Во -первых, нам нужны четкие трубопроводы, которые отслеживают атрибуцию. Еще одна значительная и многоразрешенная технология, Blockchain, помогает с этим. Основа на основе блокчейна создает неизменные записи о том, какие информационные агенты получают доступ. В отличие от сегодняшнего непрозрачного источника, мы можем встроить подотчетность в инфраструктуре с проверенными системами учетных данных и децентрализованными идентификаторами. Например, Kite AI создает модульный блокчейн Layer-1, который отслеживает подтверждение приписываемого интеллекта. Таким образом, разработчики могут настроить стимулы, координировать сотрудничество между подсети и создавать идеальные технологические стеки AI на индивидуальных данных, моделях и агентах.
Во-вторых, сохраняющие конфиденциальность вычислительных технологий позволяют обрабатывать данные без воздействия. Доказательства нулевого знания, гомоморфное шифрование и безопасные многопартийные вычисления создают основы согласия и обеспечивают безопасность данных. Эти технологии, внедренные в различных системах блокчейна и вычислительной среды выполнения (TEE), обеспечивают вычисление по сравнению с конфиденциальными данными без раскрытия.
В -третьих, нам нужно вернуть доверие к этим системам с надлежащим кредитом. Если используется информация пользователя или материал, защищенные авторским правом, агенты и их соответствующие модели должны вознаградить, а не игнорировать атрибуцию. Протокол сюжета — это еще один проект Web3, продвигающий эту концепцию — используя блокчейн, чтобы позволить создателям установить право собственности на свою работу, устанавливать правила для того, как ее можно использовать, и гарантируя, что им платят при использовании их контента. CARV ID достигает чего -то подобного — привязывая онлайн -идентификаторы с одним источником истины, где пользователи решают, доступна ли их информация и подлежит обучению модели. Это не только приводит пользователей в революции искусственного интеллекта, но и является некоторым способом восстановления доверия к общей системе.
Доверие делает или нарушает принятие агента
Агенты наткнутся на первое препятствие, если они не привлекут доверия. Помните, что это платформы, которые обещают автономную, интеллектуальную помощь в разных контекстах. Основное принятие вряд ли дома или работы, если наша отрасль продолжает снимать данные.
Мы уже видели опасность этого с примечаниями Samsung собрания и утечкой исходного кода после использования в Chatgpt. Этот вид обработки данных недостаточно для корпоративных запатентованных данных и организаций, связанных GDPR или HIPAA. Пользователи и предприятия должны знать, что их информация не только безопасна для этих моделей, но и то, что она использует лучшие стандарты конфиденциальности и бэкэнд-ограждения.
Существуют также эксплуатационные преимущества для правильного использования данных. Агенты искусственного интеллекта, построенные на инфраструктуре суверенитета данных, дают более надежные результаты, получая доступ к более качественной, должным образом приписываемой информации. Они также могут быть проверены на предвзятость и неточности. И, возможно, самое главное, они заслуживают доверия, работая прозрачно, а не как непостижимые черные ящики.
Успех агента зависит от создания системы, в которой данные не просто обильные и аккредитованные, но обогащены действенными показателями и подтверждены с помощью достоверного консенсуса. Когда агенты получают доступ к высококачественной, проверенной информации-и только с явными механизмами согласия пользователя и атрибуции-они могут достичь своих высоких целей. Сейчас самое время учиться на ошибках CHATGPT и наметить новый путь к безопасной и проверенной агентской инфраструктуре.
Trending Stories youtube.com/thenewstack Tech движется быстро, не пропустите эпизод. Подпишитесь на наш канал YouTube, чтобы транслировать все наши подкасты, интервью, демонстрации и многое другое. Группа подпишитесь с эскизом. Юкай Ту является главным технологическим директором в CARV. Юкай является экспертом в области конфиденциальных вычислений и блокчейна и имеет MS в области компьютерных наук от UCLA. В CARV Юкай помогает создавать цепь CARV SVM и структуру данных CARV, … Подробнее от Yukai Tu