Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр
Собирайте комбинации из блоков! Бесконечный режим, более 100 уровней, ежедневные задания и турниры.

Расслабьтесь и отдохните: игра без ограничений по времени.

Проверьте свою смекалку: головоломка для любителей

Блоки Судоку - расслабляющая головоломка

Головоломки, Гиперказуальные, Мобильная

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • SergeyKorsun SergeyKorsun 12 постов
  • SupportHuaport SupportHuaport 5 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня

IT + Машинное обучение

С этим тегом используют

Программирование IT юмор Программист Юмор Работа Картинка с текстом Разработка Нейронные сети Искусственный интеллект Технологии ChatGPT Python Все
136 постов сначала свежее
TheFounder
TheFounder
9 месяцев назад

Что означает ошибка TypeError: unsupported operand type(s)?⁠⁠

Что означает ошибка TypeError: unsupported operand type(s)? Программирование, IT, Нейронные сети, Машинное обучение

Ошибка TypeError: unsupported operand type(s) возникает в Python, когда операция или функция применяется к объектам типов, которые не поддерживают данную операцию.

Например, ошибка может возникнуть при попытке сложить строку и число: Python не может автоматически преобразовать типы данных в такой ситуации.

Python строго типизирован и не выполняет автоматическое приведение типов в операциях, как это может происходить в некоторых других языках программирования.

Если требуется, чтобы разные типы взаимодействовали, необходимо явно преобразовать один тип в другой с помощью таких функций, как int(), str() или float(), в зависимости от контекста.

Например, если вы складываете число с текстом, нужно привести число к строке с помощью str(), или наоборот, если нужно выполнять математические операции, строку следует преобразовать в число через int() или float(), если это возможно.

Подобные ошибки могут возникать не только при арифметических операциях, но и при использовании неподдерживаемых операций с коллекциями данных или объектами других типов.

Ошибка может возникнуть при попытке сложить список и строку, например, [1, 2, 3] + "abc".

Python не знает, как объединить эти разные типы, поэтому выбрасывает TypeError. Решением будет либо привести строку к списку, либо изменить логику кода.

Еще один пример — деление строки на число, например, "10" / 2. Так как строка не поддерживает арифметические операции, Python выдаст TypeError.

Для решения нужно сначала преобразовать строку в число с помощью int() или float(), а затем выполнить операцию.

Поэтому важно отслеживать типы данных на каждом этапе выполнения программы и использовать проверку типов для предотвращения таких проблем.

Показать полностью 1
Программирование IT Нейронные сети Машинное обучение
1
0
TheFounder
TheFounder
9 месяцев назад

Почему LLM не могут объяснить свои рассуждения?⁠⁠

Да, LLM (те самые Большие Языковые Модели) умные и обученные, но пока они не смогут внятно объяснить, что творится у них в “голове”, когда они делают выбор, мы не приблизимся к человекоподобному ИИ.

А чтобы было понятно, давайте на примере разберём. Допустим, у нас есть LLM, которой нужно найти закономерность в числах. Мы даём ей две последовательности чисел и просим выбрать третью, которая подходит по той же схеме.

Вот они:

  • Последовательность 1: 6, 8, -2, 10, -12, 22, -34, 56

  • Последовательность 2: 8, 2, 6, -4, 10, -14, 24, -38

А теперь варианты для третьей последовательности:

A) 5, 10, 17, 25, 34, 44, 55, 67

B) 5, 10, 6, 2, -2, -6, -10, -14

C) 5, 10, -5, 15, -20, 35, -55, 90

D) 5, 10, 7, 4, 1, -2, -5, -8

LLM выбирает последовательность С, объясняя свой выбор тем, что третий элемент — это разница между предыдущими двумя, а потом мы добавляем геометрическую прогрессию. Но очевидно же, что это бред.

Тогда почему модель так уверенно отвечает, хотя её объяснение к реальной сути вообще не относится?

На то есть несколько причин:

Модель не умеет по-настоящему рассуждать   

Да, она видит какие-то закономерности, но если дело доходит до объяснений, то начинается мрак. Даже если она правильно угадывает ответ, её объяснение может быть совершенно бессмысленным.

Авторегрессионная архитектура

LLM объясняет после того, как уже сделала выбор. Объяснение никак не влияет на сам выбор. Вот и получается, что иногда оно настолько неуместное, что хочется закрыть ноут и пойти подышать (перфекционисты поймут).

Фальшивое объяснение 

Бывает такое: модель отвечает верно, но её логика — это просто набор слов. Как будто она пытается убедить себя (и нас) в том, что поняла, о чём речь, хотя на деле — нет. Как это… по-человечески))

А что, если задать ей один и тот же вопрос несколько раз, она одумается и исправит ответ?

Не-а. Даже после двух-трех таких попыток её ответы могут вызывать в вас один вопрос: «что за бред я только что прочитал?»

При это LLM настолько уверенно выдает чушь, что и сам начинаешь сомневаться: а может, она права?

И даже когда дело доходит до числовых последовательностей, модели путаются. Фибоначчи она, может, и вспомнит, но что-то посложнее — тушите свет.

Вот и делайте выводы, кто тут ещё кого заменит))

Показать полностью
Программирование IT Нейронные сети Машинное обучение Видео
2
3
TheFounder
TheFounder
9 месяцев назад

Как справляться с информационным перегрузом во время обучения?⁠⁠

Как справляться с информационным перегрузом во время обучения? Программирование, IT, Машинное обучение, Нейронные сети

Если чувствуешь, как плавятся мозги, пока ты уже десятый раз читаешь один и тот же абзац в новом уроке, ничего не запоминая, то у тебя случилась информационная перегрузка.

И да, сегодня только вторник, а работы ещё на целую неделю. Ну и... что с этим делать?

А вот что:

Закрой всё лишнее 

Нет, правда. Убери телефон, закрой вкладки с соц сетями и сериальчиком. Оставь только то, что реально нужно для учёбы. Ютуб на фоне — тоже не вариант, это всё внимание крадёт.

Делай по три задачи в день

А не всё и сразу. Составь список из трёх приоритетов на день. Сделал их? Молодец, больше не нужно.

Планируй свое время

Чётко разграничь: вот время для учёбы, вот для работы. Если миксовать их, то ничего хорошего не выйдет.

Спасай свой мозг перерывами

Учись по 30-40 минут, потом дай себе 5 минут отдыха. Встань, потянись, попей воды и подыши у окошка. Это лучше, чем просто лежать на диване и листать соцсети.

Не убивай свой фокус инфошумом

Выруби все уведомления, мессенджеры, ленты новостей. Сейчас всё это — враг концентрации.

Переключись, если чувствуешь, что закипел

Сильно напрягся? Умойся холодной водой, сделай 10 приседаний или просто сходи на кухню и вымой чашки, которыми заставлен твой стол. Серьёзно, это реально работает.

И запомни: ты не должен понять всё сразу. Учёба — это процесс, ошибки — часть этого процесса. Главное — не останавливаться, а идти дальше, даже если сложно.

Показать полностью 1
Программирование IT Машинное обучение Нейронные сети
0
3
TheFounder
TheFounder
9 месяцев назад

LLM без галлюцинаций?⁠⁠

LLM без галлюцинаций? Программирование, IT, Машинное обучение, Нейронные сети, Длиннопост

Интеграция механизмов валидации фактов — ключевой метод, направленный на минимизацию галлюцинаций в LLM.

С технической точки зрения, это может быть реализовано через несколько подходов. Например,  использование внешних API для фактической проверки данных в реальном времени.

После генерации текста модель может отправлять запросы к REST API или GraphQL-сервисам, которые содержат актуальные и проверенные данные. Ну там, Википедия)))

Этот процесс требует интеграции с внешними источниками данных через HTTP-запросы, парсинг полученной информации и последующее сравнение с контентом, сгенерированным моделью.

Во-вторых, кодеры могут задействовать логический вывод.

Для этого используется логическая система, которая проверяет согласованность утверждений в тексте на основе предопределённых правил и аксиом.

Примеры таких систем — theorem provers или symbolic AI, которые могут быть интегрированы в процесс генерации текста для оценки правильности выводов.

Другой способ верификации — модели самопроверки (self-verification models).

Здесь LLM сама проводит валидацию на основе своих внутренних знаний и структур, сверяя контекст и факты на разных этапах генерации.

Достигается за счёт последовательного вычисления вероятностей для каждой фразы и проверки на основе предыдущего контекста с использованием attention layers в трансформерах.

Модель может также быть настроена на запуск отдельного sub-process, который выполняет проверку согласованности сгенерированного текста с уже известными фактами, находящимися в её внутренней базе знаний или загруженными из внешних источников.

Настройка функции потерь (loss function) — это ещё один эффективный метод. В традиционных LLM функция потерь используется для минимизации ошибки предсказания следующего токена на основе данных обучения. 📉

Однако можно модифицировать стандартную cross-entropy loss, добавив дополнительные коэффициенты, которые будут штрафовать модель за генерацию текста, не согласующегося с реальными фактами.

Кросс энтропию потерь можно оценить путём введения новой метрики для оценки правдивости генерируемого текста — truthfulness score, которая бы вычислялась на основе сравнения с проверенной информацией или внешними источниками.

Для этого, в процессе обучения, модель будет получать сигналы о том, насколько её выход соответствует реальности, и корректировать веса слоёв трансформеров, чтобы минимизировать количество ошибок.

Примером модификации функции потерь может быть использование reinforcement learning, где агент (модель) получает отрицательное вознаграждение (negative reward) за генерацию некорректных утверждений.

Fine-tuning — процесс дообучения модели на специализированных данных, что улучшает её производительность на конкретных задачах.

Технически реализуется через метод transfer learning, где предобученная модель, обладающая общей информацией, дообучается на небольшом высококачественном наборе данных, содержащем проверенные данные.

Для этого обычно используется техника supervised fine-tuning, где модель обучается на примерах, где ответы уже известны, что позволяет ей лучше справляться с конкретными задачами, избегая галлюцинаций.

Важно правильно настроить параметры, learning rate и batch size, чтобы избежать переобучения и сохранить генеративные способности модели, одновременно повышая её способность опираться на факты.

Показать полностью 1
Программирование IT Машинное обучение Нейронные сети Длиннопост
0
3
TheFounder
TheFounder
9 месяцев назад

Как не сесть за решетку из-за чувствительных данных?⁠⁠

Как не сесть за решетку из-за чувствительных данных? Программирование, IT, Нейронные сети, Машинное обучение

Чувствительные данные в машинном обучении – информация-компромат, которая может быть использована для восстановления идентичности субъектов данных или для несанкционированного доступа к информации, связанной с их персональными характеристиками, интересами или поведением.

Они – источник уязвимости системы, поскольку их обработка требует соблюдения строгих стандартов безопасности, приватности и этики.

Чувствительные данные могут создавать сложности для алгоритмов машинного обучения, поскольку модели могут неявно обучаться на данных, которые коррелируют с этими атрибутами, даже если такие атрибуты напрямую исключены из данных, что порождает проблему утечки информации через коррелированные переменные.

Простыми методами проблему редко исключишь…

Это особенно критично в задачах, где алгоритмы должны обеспечивать высокую точность при минимизации риска дискриминации или нарушения конфиденциальности.

Иногда можно применить дифференциальную приватность – хакер просто не сможет восстановить данные косвенными путями, ведь запрос в базу данных максимально точный.

Но как добавляемый шум ухудшает способность алгоритмов точно моделировать данные.

С другой стороны, чувствительные данные могут служить мишенью для атак на конфиденциальность через инверсные атаки, которые пытаются восстановить исходные данные на основе доступа к модели.

Сложные алгоритмы могут опираться на латентные факторы, которые скрыто коррелируют с чувствительными данными – это затрудняет контроль над тем, т.е организовать адекватную систему защиты просто невозможно. Так или иначе в фотографии столба будет частичка вашего песеля...

Поэтому важно грамотно интерпретировать данные, чтобы не допускать такого.

Простая деидентификация данных не всегда обеспечивает адекватную защиту, так как модели могут неявно усваивать информацию, восстанавливая скрытые зависимости между различными признаками, которые могут быть косвенно связаны с чувствительными атрибутами.

А вследствие и путевкой за решетку из-за попадания мелкого и точного элемента на условную генерацию. А это авторские права…

Это актуально для нейронок, которые находят сложные нелинейные зависимости в данных. А это значит, что сокрытие почти невозможно…

Мы это к чему… не загружайте фотографии ваших кошек и собак. Это слишком личное.

Показать полностью 1
Программирование IT Нейронные сети Машинное обучение
0
TheFounder
TheFounder
9 месяцев назад

Миллиард на хайпе!⁠⁠

Миллиард на хайпе! Программирование, IT, Нейронные сети, Машинное обучение, Длиннопост

В мае 2024 года Илья Суцкевер, ранее занимавший пост главного научного руководителя OpenAI — компании, ответственной за разработку ChatGPT, сообщил о своем уходе и запуске нового стартапа под названием Safe Superintelligence (SSI).

ДЛЯ СПРАВКИ: Родившись в 1984 году в Нижнем Новгороде, он эмигрировал с семьей в Израиль в 1991 году, а затем переселился в Канаду. Да, целых семь лет Илья был нашим земляком.

Помните ту историю с зеленым гигантом, когда начались сподвижки внутри проекта, а часть сотрудников из совета директоров были уволены? Так вот, эта та история. Суцкевер просто сказал, что не хочет опасного AGI в современном мире, поэтому постарается сделать вклад в безопасное ИИ, и уволил Сэма Альтмана.

После массового бунта сотрудников, Сэма вернули к должности, а сам Суцкевер решил окончательно уйти из проекта добровольно.

Их новый стартап SSI фокусируется исключительно на разработке безопасного суперинтеллекта.

Суцкевер уточнил, что основная цель стартапа — создание безопасного искусственного интеллекта, представляющего собой единственный продукт, на котором будут сконцентрированы все усилия команды, что, по его словам, требует единственного и точного подхода.

Компания SSI намерена базироваться сразу в двух ключевых центрах технологической индустрии — в Пало-Альто, Калифорния, и в Тель-Авиве, Израиль.

Помимо самого Суцкевера, в состав сооснователей вошли две влиятельные фигуры, также обладающие значительным опытом в вычислительной информатике и ИИ: Дэниэл Гросс, ранее возглавлявший отдел ИИ-разработок в компании Apple, и Дэниэл Леви, который в прошлом также сотрудничал с OpenAI.

Такой состав основателей подчеркивает высокую степень профессионализма и амбициозность нового проекта, настолько подчеркивает, что инвесторы задонатили ребятам по 5 млрд долларов.

В интервью, данном агентству Bloomberg, Суцкевер воздержался от раскрытия информации о спонсорах, поддерживающих новый стартап, равно как и о суммах, уже привлеченных в проект.

Миллиард на хайпе! Программирование, IT, Нейронные сети, Машинное обучение, Длиннопост

Однако Дэниэл Гросс, его сооснователь, отметил, что вопросы привлечения капитала — не особо серьезное препятствие для компании на текущем этапе. Может быть, что у SSI есть серьезные инвест-потоки…

Суцкевер пояснил: проект будет огражден от внешнего давления, часто сопровождающего создание масштабных и сложных продуктов, а также от необходимости участвовать в конкурентной гонке. Это круто, если посмотреть на компании-соседи по типу OpenAI или Google…

Под безопасностью суперинтеллекта он подразумевает, к слову, нечто, схожее по важности с ядерной безопасностью, однако этот аспект не следует путать с более обыденными понятиями вроде «доверия» и «безопасности». Ключевым моментом в этом контексте является стремление выйти за пределы современных языковых моделей, которые, хотя и доминируют на рынке ИИ, не отвечают требованиям безопасности суперинтеллекта в полной мере

Галлюцинации, ложь и откровенно адские заявления LLM при провокации вызывают опасения.

Современные системы ИИ позволяют пользователям лишь общаться с моделью, однако суперинтеллект должен представлять собой нечто значительно более мощное — своего рода гигантский центр обработки данных, способный к самостоятельному разработке новых технологий.

Основная задача SSI заключается в том, чтобы внести вклад в обеспечение безопасности таких систем. Суцкевер особенно акцентировал внимание на том, что фундаментальное свойство безопасного суперинтеллекта заключается в его способности не причинять человечеству широкомасштабного вреда, но не частного.

Биографическая справка о Суцкевере помогает лучше понять его мотивацию и мировоззрение.

AGI, по его мнению, способен значительно превзойти человеческие возможности, что может представлять серьезную угрозу, если не будет создано соответствующее согласование этих технологий с фундаментальными человеческими ценностями.

В конце 2022 года Суцкевер публично выразил беспокойство тем, что в будущем AGI может начать воспринимать людей так же, как сейчас люди воспринимают животных, что лишь подчеркивает остроту этических и философских вопросов, связанных с развитием этих технологий.

В каком направлении проект может продвинуться?

Для повышения интерпретируемости важно разработать модели, которые можно подвергать проверке и анализу на каждом этапе их работы.

Например, вместо использования слишком сложных моделей, которые трудно интерпретировать, можно разработать более простые модели или гибридные системы, которые сочетают в себе мощь глубокой нейронной сети и традиционных алгоритмов, таких как логистическая регрессия или деревья решений.

Миллиард на хайпе! Программирование, IT, Нейронные сети, Машинное обучение, Длиннопост

Технически они представляют собой иерархическую структуру, где каждый внутренний узел соответствует проверке определенного условия по одному из признаков данных, а каждая ветвь — это результат этой проверки, ведущий к следующему узлу или листу дерева. Листья, в свою очередь, представляют собой конечные классы или значения, которые модель предсказывает.

Процесс построения дерева решений можно разделить на несколько ключевых этапов, которые обеспечивают интерпретируемость модели.

Разбиение данных на основе признаков (feature splits). На каждом шаге построения дерева выбирается признак, по которому данные будут разделены на подмножества. Это выбор основан на критерии, который максимизирует чистоту (homogeneity) подмножеств.

Миллиард на хайпе! Программирование, IT, Нейронные сети, Машинное обучение, Длиннопост

Чистота измеряется с помощью таких метрик, как энтропия или индекс Джини, которые оценивают степень однородности данных в каждой ветви после разбиения.

Цель алгоритма заключается в том, чтобы на каждом этапе минимизировать неопределенность или разнородность в подмножестве данных, тем самым улучшая точность предсказаний.

После выбора признака, данные разделяются по порогу или категориальным значениям, и процесс повторяется рекурсивно для каждого нового подмножества.

Это разбиение продолжается до тех пор, пока не достигнуты либо заданные критерии остановки, либо все данные в узле однородны, либо глубина дерева не превышает допустимого предела.

Важно отметить, что каждое решение в дереве связано с конкретным признаком, что делает процесс принятия решения легко интерпретируемым: каждый узел дерева представляет логическое условие, а путь от корня к листу — это последовательность условий, объясняющих, как было достигнуто предсказание.

Благодаря такой структуре деревья решений легко визуализировать и анализировать. Каждое решение можно проследить шаг за шагом, изучив, какие признаки были использованы на каждом этапе и каким образом они привели к конечному результату.

Один из доп направлений повышения интерпретируемости — использование пост-хок интерпретируемых методов.

Пост-хок интерпретируемые методы играют ключевую роль в интерпретации сложных моделей машинного обучения и нейронных сетей, когда их структура слишком сложна для непосредственного анализа.

Такие методы применяются уже после того, как модель обучена, и их задача заключается в создании инструментов для анализа связи между входными данными и выходными решениями модели. Они предоставляют разработчикам и исследователям способы деконструкции «черного ящика», позволяя выявлять причинные зависимости и зоны чувствительности внутри модели.

Один из важнейших пост-хок методов — это вычисление важности признаков (feature importance). Важность признаков измеряет, насколько сильное влияние каждый отдельный признак (feature) оказывает на выход модели.

Миллиард на хайпе! Программирование, IT, Нейронные сети, Машинное обучение, Длиннопост

Например, можно использовать обратное распространение ошибки (backpropagation) для определения того, насколько изменение конкретного признака влияет на изменение выходного значения.

Один из вариантов этого подхода — градиентный, который использует производные выходного значения модели по отношению к каждому признаку, что позволяет оценить их значимость.

В случае нейронок, где прямой расчет значимости признаков становится затруднительным, применяются такие техники, как интегрированные градиенты (integrated gradients), которые усредняют вклад каждого признака по траектории от базовой точки до текущего состояния модели.

Миллиард на хайпе! Программирование, IT, Нейронные сети, Машинное обучение, Длиннопост

Другой мощный метод — это LIME (Local Interpretable Model-agnostic Explanations). Этот алгоритм фокусируется на интерпретации локальных решений модели.

LIME работает на основе создания приближенной модели для небольшой области вокруг конкретного предсказания, используя простые линейные модели, которые легче интерпретировать.

Процесс включает в себя выбор подмножества данных вблизи исходной точки предсказания и построение на них модели, которая приближает работу исходной сложной модели. Таким образом, LIME позволяет интерпретировать сложные модели даже в том случае, если они изначально не предоставляют информации о структуре своих решений.

Grad-CAM (Gradient-weighted Class Activation Mapping) — это техника визуализации, специально разработанная для глубоких сверточных нейронных сетей (CNN). Grad-CAM позволяет выявить области на входном изображении, которые наиболее сильно влияют на активации последних слоев сети, отвечающих за принятие решения.

Этот метод использует градиенты выходных активаций по отношению к активациям внутри сверточных слоев, чтобы визуализировать, какие части изображения были наиболее значимыми для сети.

Grad-CAM генерирует тепловую карту (heatmap), которая показывает, какие участки изображения имеют наибольшую важность для конкретного предсказания, тем самым улучшая интерпретируемость моделей в задачах компьютерного зрения.

Еще один класс методов, который можно отнести к пост-хок интерпретируемости, включает в себя методы пертурбации. Здесь используется идея модификации входных данных с целью оценки чувствительности модели к изменениям определенных признаков.

Простейший пример — это замена одного из признаков или его значения на случайное или экстремальное, чтобы оценить, как модель реагирует на такие изменения.

Миллиард на хайпе! Программирование, IT, Нейронные сети, Машинное обучение, Длиннопост

Другие техники связаны с объяснением решений через построение «суррогатных» моделей. Это такие модели, которые приближают сложные модели, используя более простые структуры, например, деревья решений или линейные модели.

Такие суррогатные модели служат для создания интуитивно понятных интерпретаций сложных предсказательных алгоритмов.

Например, в задачах классификации могут быть использованы методы построения деревьев, которые приближенно повторяют логику работы нейросети, предоставляя аналитический способ для понимания того, как были приняты решения в ключевых узлах сети.

Пост-хок методы не без недостатков: их интерпретируемость и применимость могут быть ограничены за счет того, что они не всегда точно отражают внутренние процессы сложных моделей, а лишь приблизительно интерпретируют результаты.

Но в самом деле… все эти методы не обеспечивают реальной безопасности и совершенно убивают трансформерные преимущества LLM. Получится ли у бывшего сотрудника OpenAI создать безопасный ИИ без вреда эффективности?

Показать полностью 7
Программирование IT Нейронные сети Машинное обучение Длиннопост
0
TheFounder
TheFounder
9 месяцев назад

Детекция аномалий в системах кибербезопасности⁠⁠

Машинное обучение (ML) в кибербезопасности сейчас — это не просто круто, это необходимость. Почему? Да потому что старые методы защиты типа сигнатурного анализа уже не справляются со всеми угрозами.

Что такое аномалия?

В кибербезопасности аномалия — это что-то, что выбивается из общего паттерна поведения системы.

Скажем, есть стандартный набор данных, где все ок: нормальные сетевые логи, транзакции и так далее. Но внезапно появляется какой-то сбой — резкий всплеск активности или странное поведение пользователя, которое не вписывается в обычный профиль. Вот это и есть аномалия.

ML модели в контексте детекции аномалий можно разделить на два типа:

  1. Обученные на основе аномалий.

  2. Обученные на основе нормальных данных.

Первый тип редко встречается в реальности, потому что аномалии — это вообще редко встречающееся явление, и собрать на них нормальный датасет практически невозможно. Поэтому обычно идут по второму пути: моделируют нормальное поведение и ищут отклонения от него.

Как это делают?

Для начала нужно собрать и подготовить данные: сетевые логи, системные события, данные доступа и так далее. Модельки любят числовые данные, поэтому приходится преобразовывать строки в числа — например, использовать one-hot encoding для категориальных данных или нормализовать числовые значения

А как выбрать модель для детекции аномалий?

А вот здесь начинается веселье.

Один из самых популярных методов — это Isolation Forest. Хитрый алгоритм, который строит много деревьев решений, где каждый узел разделяет данные на более мелкие группы. Основная идея в том, что аномалии легко отделяются от основного массива данных, и алгоритм их быстро находит.

Работает так: строишь кучу деревьев, и если объект из датасета изолируется быстрее остальных, то это аномалия.

Есть еще автоэнкодеры — нейросети, которые обучаются восстанавливать свои входные данные, но о них мы поговорим в следующих постах, посвященных безопасности. Как и о том, как вообще обучать и настраивать такие модельки.

Показать полностью
Программирование IT Нейронные сети Машинное обучение Видео Без звука
0

Попробовать мобильный офис

Перейти
Партнёрский материал Реклама
specials
specials

Мобильный офис до 100 тысяч рублей⁠⁠

Ноутбуки используют не только для работы: на них смотрят сериалы, редактируют фото, запускают игры и монтируют ролики. Поэтому теперь требования к устройству такие: быть легким для дороги, надежным для горящих дедлайнов и стильным, чтобы не прятать в переговорке. А еще — легко работать в связке с другими гаджетами.

Протестировали TECNO MEGABOOK K15S вместе со смартфоном TECNO CAMON 40 и наушниками TECNO в рабочих и бытовых сценариях от Zoom-звонков до перелета, а теперь рассказываем, как себя показала техника.

Первое впечатление от дизайна ноутбука

Первое, что заметно — это вес. При диагонали 15,6 дюйма и полностью металлическом корпусе K15S весит всего 1,7 кг. Это примерно на 15% меньше, чем аналоги. Устройство не обременяет ни в офисе, ни в такси. Ноутбук поместился в стандартный городской рюкзак, было удобно достать его в кафе за завтраком и по дороге в такси, чтобы быстро отработать клиентские правки.

1/4

Дизайн сдержанный, без ярких акцентов, с матовой поверхностью. Правда, на ней остаются следы от рук. Так что если приходится постоянно открывать ноутбук в присутствии клиентов или партнеров, лучше купить прозрачный кейс. Визуально и тактильно устройство ощущается надежно: не выскальзывает и не двигается по столу, благодаря специальным резиновым накладкам на задней части.

Шарнир работает мягко: чтобы открыть крышку даже одной рукой, не нужно придерживать корпус. Чтобы показать коллеге или клиенту презентацию, достаточно раскрыть экран на 180°. Это удобно и для работы лежа, и для подставок, которые требуют определенного угла обзора.

Также отметим 9 портов: USB-A, USB-C, HDMI, слот для карты памяти — можно забыть о переходниках.

В TECNO MEGABOOK K15S предустановлен Windows 11. Ноутбук готов к работе сразу после включения. Никаких лишних установок и обновлений. Все настроено и оптимизировано для вашей многозадачности.

Экран: яркая картинка и комфорт ночью

Экран — 15,6 дюйма, IPS-матрица с разрешением Full HD. Углы обзора отличные: изображение остается четким, даже если смотреть сбоку, цвета не искажаются. Есть антибликовое покрытие. Тестировали ноутбук при разном освещении: можно спокойно работать у окна. Когда солнце бьет прямо в экран, текст по-прежнему остается читаемым, картинки не искажаются. Это редкость в бюджетных моделях.

1/2

Неважно, работаете вы ночью или играете, выручит клавиатура с регулируемой четырехуровневой подсветкой. При среднем уровне в темноте все видно, глаза не устают. Из плюсов для тревожных людей: включали ноутбук в самолете и электричке, никто вокруг не жаловался на яркость. Все регулируется кнопками, не нужно лишний раз заходить в настройки.

Стеклокерамический крупный тачпад — 15 см. Он не залипает, не промахивается, срабатывает с первого касания. Не возникает дискомфорта, даже если несколько часов редактировать документы без мышки. После перехода с других устройств немного непривычно, что тачпад работает в двух направлениях: нижняя часть отзывается нажатием, верхняя — касанием.

В кнопку питания встроен сканер отпечатка пальцев. К нему можно быстро привыкнуть, особенно если сидишь в опенспейсе или работаешь в дороге. Один легкий тап пускает в систему даже с мокрыми руками. Безопасно, удобно и не нужно постоянно вводить пароли.

Производительность: рендерим видео, открываем вкладки

Ноутбук работает на AMD Ryzen 7 5825U (опционально можно выбрать версию техники Intel Core i5-13420H). Восьмиядерный AMD с поддержкой 16 потоков подходит для ресурсоемких операций вроде рендеринга или работы с большими массивами данных. Встроенная графика Radeon справляется с редактированием видео в Full HD или играми.

1/4

Во время монтажа 30-минутного ролика в DaVinci Resolve и параллельной работе в Photoshop с несколькими большими PSD-файлами система сохраняла стабильность. Не было ни зависаний, ни заметного падения производительности. Ноутбук уверенно держит в фоне 10 приложений одновременно. Если запущены браузер с 20 вкладками, видеозвонок в Telegram, Excel с объемной таблицей и софт для монтажа, система не тормозит и не перегревается. Переход между окнами остается плавным, ничего не «проседает», даже при одновременном скачивании файлов и редактировании видео.

Базовая комплектация включает 16 ГБ оперативной памяти в двух слотах. При необходимости можно легко увеличить этот показатель до 32 ГБ, заменив стандартные модули на более емкие. Помимо установленного SSD на 1 ТБ предусмотрен дополнительный слот, поддерживающий диски объемом до 2 ТБ.

Чтобы во время нагрузки системы охлаждения не выходили из строя, в ноутбук встроен эффективный вентилятор, способный рассеивать до 35 Вт тепла. Устройство не греется, его спокойно можно держать на коленях. Это решение дополнено тремя режимами работы, которые переключаются простой комбинацией клавиш Ctrl+Alt+T. Тихий режим идеален для работы ночью или в общественных местах, сбалансированный подходит для повседневных задач. Производительный, на котором запускали рендеринг видео и игры, практически не шумит.

Автономность: 15 часов без подзарядки

Протестили автономность MEGABOOK K15S в условиях, знакомых каждому деловому путешественнику. Утром перед вылетом зарядили ноутбук до 100% и взяли его в рейс Москва — Калининград. В зале ожидания провели созвон, потом три часа смотрели сериал и в дороге до отеля редактировали документы. К моменту приезда оставалось 40% заряда: хватило бы еще на пару часов продуктивной работы.

1/3

MEGABOOK K15S может автономно работать до 15 часов и позволяет не оглядываться на индикатор заряда. Заявленное время достигается при типичном офисном использовании: одновременная работа с документами в Word и Excel, ведение переписки, видеоконференции, веб-серфинг.

Если все же понадобится, за  час восполняется до 70% батареи. Компактный адаптер мощностью 65 Вт на базе нитрида галлия поместился даже в карман пиджака. Один блок питания заряжает и ноутбук, и смартфон, и наушники. Экономия места: не нужно никаких дополнительных проводов.

Звук, который реально слышно

В TECNO MEGABOOK K15S установлены два мощных динамика по 2.5 Вт. Звук с глубокими низами, без пластикового дребезжания, объемный. Благодаря DTS можно смотреть видео даже в шумном помещении. В тестах специально включали сцены с шагами и выстрелами: локализация настолько точная, что в наушниках нет необходимости.

Та же стабильность и в микрофоне. Благодаря AI-шумоподавлению голос передается чисто. Во время тестовых звонков из оживленного кафе собеседник не услышал ни разговоры за соседним столом, ни городской шум. И все это — на расстоянии до пяти метров.

Кстати, о созвонах. В ноутбуке встроена обновленная камера. Она отслеживает положение лица, а еще есть физическая шторка приватности. Например, можно закрыть шторку для комфортных видеоконференций.

Для тех, кто предпочитает гарнитуру, идеально подойдут беспроводные наушники TECNO FreeHear 1 из экосистемы бренда. Когда не хотелось делиться разговорами с окружающими, подключали их. Чистый звук с акцентом на средние частоты, 11-мм драйверы, которые выдают неожиданную детализацию. Музыку слушать приятно: и фоновый плейлист на телефоне, и вечерний сериал на ноутбуке. Автономно работают наушники 6 часов, с кейсом — до 30 часов. 

1/2

Bluetooth 5.4 обеспечивает стабильное соединение на расстоянии до 10 метров. Удобная C-образная форма разработана специально для длительного ношения — после восьмичасового рабочего дня в ушах не возникает дискомфорта. Наушники поддерживают одновременное подключение к ноутбуку и смартфону. Переключение между устройствами происходит быстро и без заминок.

Через фирменное приложение Welife можно выбрать один из четырех эквалайзеров и отследить местоположение гарнитуры в случае утери. А еще кастомизировать виджет для управления наушниками. Функция настройки персонализированного дизайна доступна для устройств на Android и позволяет гибко изменить внешний вид окна подключения: вплоть до установки фоновой картинки или собственного фото.

Первые пару использований может потребоваться время, чтобы привыкнуть к нестандартной форме вкладышей, но уже с третьего раза они надеваются вслепую за секунду. Что особенно приятно:  собеседники отмечают, что звук от микрофона более приятный и четкий, чем у дорогих известных моделей.

Бесшовная синхронизация со смартфоном

Благодаря функции OneLeap ноутбук синхронизируется со смартфоном TECNO. Подключение происходит за пару секунд: достаточно один раз подтвердить сопряжение. После этого открывается доступ к бесшовному переключению между устройствами — объединенному буферу обмена, дублированию экранов и передаче файлов без кабелей и пересылок в мессенджерах.

Функция выручила, когда нужно было открыть приложение, у которого нет веб-версии. Удобно работает и буфер обмена: скопировал текст на одном устройстве — вставил на другом. Например, код, полученный в сообщении на телефоне, вводится в браузере на ноутбуке. Экономит минуты, а иногда и нервы. А когда в дороге пропал Wi-Fi, ноутбук сам подключился к мобильному интернету через смартфон.

1/2

TECNO CAMON 40 и сам по себе — мощный рабочий инструмент.  Смартфон выделяется камерой высокого качества 50 Мп, ярким AMOLED-экраном 120 Гц и множеством функций, которые упрощают процесс мобильной съёмки и использование искусственного интеллекта TECNO AI.

Телефон работает на HIOS 15.0.1 на базе Android 15.В фирменную оболочку встроен искусственный интеллект:

  • Голосовой помощник Ella. Отвечает на вопросы, помогает с задачами и управлением устройством.

  • Решение задач. Наводите камеру на задачу, ИИ решает ее.

  • AI Редактор фотографий. Интеллектуальная обработка в одно касание.

  • Быстрый поиск. Находит адрес на экране и запускает навигацию, распознает объекты и события, автоматически добавляет их в календарь.

Технические характеристики

  • Процессор и память. 8 ядер, 16 потоков, Кэш L3 16 МБ, частота до 4.5 ГГц Графический процессор AMD Radeon™ graphics SSD 512 ГБ или 1 ТБ, М.2, 2280, PCle 3.0 Nvme DDR4 16 ГБ, 3200 МГц.

  • Дисплей. 15.6", TFT, Full HD (1920×1080), 16:9, 280нит, 45% NTSC, 16.7 млн цветов, 60 Гц, 141 ррі.

  • Веб-камера. 1 Мп, шторка приватности.

  • Порты. 9 портов: 1*TF Card (microSD), 1*HDMI 1.4, 1*USB-A 3.1,

    1*USB-A 3.2, 1*3.5mm аудиовход, *Ethernet RJ45 до 1 Гбит, 2*Туре-С (Full Function), 1*слот для замка Kensington.

  • Другое. Сканер отпечатка пальца в кнопке питания. Клавиатура с подсветкой (4 уровня яркости). Тачпад с поддержкой одновременно 4 касаний.

  • Батарея. 70 Вт∙ч (6150 мА∙ч), Li-Pol, 11.55 B 65 Вт Type-C GaN, 20 В, 3.25 А, кабель 1.8 м (Туре-С-Type-C).

  • Габариты. 17.3 мм (высота), 359.5 мм (ширина), 236 мм (глубина).

  • Вес. 1,7 кг.


Если хотите создать собственную экосистему, в которой технологии подстроятся под ритм дня, попробуйте технику TECNO. Мощный ноутбук, быстрый смартфон и наушники соединяются в единое пространство. Быстрое переключение между устройствами, синхронизация файлов и стабильное соединение без лишних настроек.

КУПИТЬ НОУТБУК TECNO

Реклама TECNO Mobile Limited, Юридический адрес: Flat N, 16/F., Block B, Универсальный промышленный центр, 19-25 Shan MeiStreet, Fotan, New Territories, Гонконг

Показать полностью 17
Электроника Гаджеты Ноутбук Длиннопост
1
TheFounder
TheFounder
9 месяцев назад

Как создать 3D-сцену всего по одному текстовому запросу?⁠⁠

Создание 3D-сцен для тренировки моделей машинного обучения — задача не из простых. Ведь тут самое важное, чтобы такие сцены работали как надо: они должны быть согласованными со всех сторон и позволять модели "гулять" по ним, изучая все детали.

Только практике большинство методов с этим не справляются. Они либо добавляют кусочки сцены по мере надобности, либо используют панорамы с широким обзором.

В результате проблема остается проблемой: при расширении сцены смысл часто теряется, и структура становится слишком сложной.

Так, стоп. Хватит нагнетать.

Вышел новый фреймворк — LayerPano3D. Он решает эти проблемы и позволяет создавать полноэкранные 3D-сцены для ML-моделей всего на основе одного текстового запроса.

В чём фишка?

LayerPano3D разбивает 2D-панораму на несколько слоёв, каждый из которых отвечает за свою глубину. Эти слои затем помогают увидеть и заполнить невидимые части сцены, используя продвинутые методы.

По сути, LayerPano3D закрывает парочку проблем, которые были в 3D моделировании:

Он использует текстовую модель для создания качественных и согласованных панорам.

Применяет метод слоистой 3D-панорамы, что помогает управлять сложными структурами и создавать детализированные 360-градусные сцены.

Эксперименты показывают, что этот фреймворк действительно справляется с задачей на ура — сцены получаются целостными и детализированными, что идеально подходит для тренировки ML-моделей.

Работает это всё просто: сначала создается эталонная панорама, потом она делится на несколько слоёв, и в итоге получается оптимизированная панорамная 3D-сцена. Самое классное, что LayerPano3D автоматизирует процесс, убирая необходимость вручную настраивать пути расширения или завершения сцены.

Взглянуть на сайт проекта можно здесь, а изучить код — здесь.

Показать полностью
Программирование IT Нейронные сети Машинное обучение Видео
0
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии