RL

Цена Ralph Lauren Corp

Закрыто
RL
₽27 173,61
+₽315,84(+1,17 %)

*Данные последний раз обновлены: 2026-05-03 11:38 (UTC+8)

На 2026-05-03 11:38 цена Ralph Lauren Corp (RL) составляет ₽27 173,61, сумма рыночной капитализации — ₽1,64T, коэффициент P/E — 18,17, дивидентная доходность — 1,00 %. Сегодня цена акции колебалась в диапазоне от ₽26 646,96 до ₽27 381,42. Текущая цена на 1,97 % выше дневного минимума и на 0,75 % ниже дневного максимума, при торговом объеме 398,76K. За последние 52 недели торгли RL шли в диапазоне от ₽26 468,40 до ₽29 016,14, а текущая цена находится в -6,35 % от максимума за 52 недели.

Основные показатели RL

Вчерашнее закрытие₽26 905,78
Рыночная капитализация₽1,64T
Объем398,76K
Соотношение P/E18,17
Дивидендная доходность (TTM)1,00 %
Сумма дивидендов₽68,49
Разводненная прибыль на акцию (TTM)15,03
Чистый доход (финансовый год)₽55,73B
Выручка (финансовый год)₽531,07B
Дата получения доходов2026-05-21
Оценка EPS2,46
Оценка доходов₽137,80B
Акции в обращении61,24M
Бета (1г)1.479
Дата без дивидендов2026-03-27
Дата выплаты дивидендов2026-04-10

О RL

Компания Ralph Lauren Corporation проектирует, продаёт и распространяет товары для образа жизни в Северной Америке, Европе, Азии и на международном уровне. Компания предлагает одежду, включая ассортимент мужской, женской и детской одежды; обувь и аксессуары, которые включают повседневную обувь, деловую обувь, ботинки, кроссовки, сандалии, очки, часы, модные и ювелирные украшения, шарфы, шляпы, перчатки и зонты, а также изделия из кожи, такие как сумки, чемоданы, небольшие кожаные изделия и ремни; товары для дома, состоящие из ассортимента для спальни и ванной, мебели, текстиля и настенных покрытий, освещения, посуды, кухонного текстиля, напольных покрытий и подарочных товаров; а также парфюмерию. Она продаёт одежду и аксессуары под брендами Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children и Chaps; женские ароматы под брендами Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection и Ralph Collection; и мужские ароматы под брендами Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport и Big Pony Men's. Ресторанная коллекция компании включает The Polo Bar в New York City; RL Restaurant в Чикаго; Ralph's в Париже; The Bar at Ralph Lauren, расположенный в Милане; и концепцию Ralph's Coffee. Компания продаёт свою продукцию универмагам, специализированным магазинам, а также магазинам для гольфа и профессиональным магазинам, и кроме того напрямую потребителям через собственные розничные магазины, магазины формата shop-in-shop на основе концессии, а также через свои сайты цифровой коммерции. Компания напрямую управляет 504 розничными магазинами и 684 магазинами формата shop-in-shop на основе концессии; а также управляет 175 магазинами Ralph Lauren, 329 фабричными магазинами и 148 магазинами и торговыми точками через лицензионных партнёров. Ralph Lauren Corporation была основана в 1967 году и базируется в Нью-Йорке, Нью-Йорк.
СекторПотребительский цикл
Вид деятельностиApparel - Manufacturers
CEOPatrice Jean Louis Louvet
Штаб-квартираNew York City,NY,US
Официальный сайтhttp://corporate.ralphlauren.com
Сотрудники (финансовый год)23,40K
Средний доход (1 год)₽22,69M
Чистый доход на сотрудника₽2,38M

Узнайте больше о Ralph Lauren Corp (RL)

Статьи Gate Learn

Что такое AI Arena(NRN)

Комплексный анализ AI Arena: Эта блокчейн-игра, интегрирующая искусственный интеллект, исследует свою основную игровую механику, инфраструктуру, функциональность собственного токена $NRN, а также потенциальные возможности и риски.

2025-01-07

ARC Агенты: Переопределение геймплея ИИ

В этой статье рассматривается, как проект ARC использует искусственный интеллект для решения проблемы недостатка игроков в инди и Web3 играх, исследуется развитие ARC и потенциал его бизнес-модели.

2024-12-10

Что такое Aether Collective (AETHER)?

Focai - это первый 'бессмертный' искусственный интеллект, построенный на базе фреймворка focEliza. Его целью является достижение полностью цепочечного интеллектуального агента, позволяющего работать независимо, хранить данные и принимать решения на блокчейне, не полагаясь на традиционные централизованные системы. В этой статье будет рассмотрена основная технология focEliza, фоновый фон разработчика, рыночная производительность FOCAI и его будущее развитие.

2025-01-20

Часто задаваемые вопросы о Ralph Lauren Corp (RL)

Какова цена акции Ralph Lauren Corp (RL) сегодня?

x
Ralph Lauren Corp (RL) сейчас торгуется по цене ₽27 173,61, 24ч Изм. составляет +1,17 %. Диапазон торгов за 52 недели: от ₽26 468,40 до ₽29 016,14.

Какие максимальная и минимальная цены за 52 недели по Ralph Lauren Corp (RL)?

x

Каково значение коэффициента цена/прибыль (P/E) для Ralph Lauren Corp (RL)? Что он показывает?

x

Какова рыночная капитализация Ralph Lauren Corp (RL)?

x

Какова самая свежая квартальная прибыль на акцию (EPS) за Ralph Lauren Corp (RL)?

x

Стоит ли сейчас покупать или продавать Ralph Lauren Corp (RL)?

x

Какие факторы могут повлиять на цену акции Ralph Lauren Corp (RL)?

x

Как купить акции Ralph Lauren Corp (RL)?

x

Предупреждение о рисках

Рынок акций связан с высоким уровнем риска и волатильностью цен. Стоимость ваших инвестиций может увеличиться или уменьшиться, и вы можете не вернуть всю вложенную сумму. Прошлые результаты не гарантируют будущих показателей. Перед принятием инвестиционных решений внимательно оцените свой опыт инвестирования, финансовое положение, цели инвестирования и склонность к риску, а также проведите собственное исследование. При необходимости обратитесь к независимому финансовому консультанту.

Дисклеймер

Содержимое этой страницы предоставлено исключительно в информационных целях и не является инвестиционной рекомендацией, финансовым советом или торговым предложением. Gate не несет ответственности за любые потери или ущерб, возникшие в результате подобных финансовых решений. Кроме того, обратите внимание: Gate может не предоставлять полный сервис на отдельных рынках и в некоторых юрисдикциях, включая, но не ограничиваясь, Соединенными Штатами Америки, Канадой, Ираном и Кубой. Более подробную информацию о странах с ограниченным доступом смотрите в Пользовательском соглашении.

Другие торговые рынки

Последние новости Ralph Lauren Corp (RL)

2026-04-23 04:54

Perplexity 公开 Web 搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本上优于 GPT-5.4

拦截新闻消息,4 月 23 日——Perplexity 的研究团队发布了一篇技术文章,详细介绍了其用于 Web 搜索代理的后训练方法。该方案使用两个开源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 和 Qwen3.5-397B-A17B),并采用两阶段流水线:先进行监督微调 (SFT) 以建立指令遵循与语言一致性,再进行在线强化学习 (RL) 以优化搜索准确性和工具使用效率。 强化学习阶段采用 GRPO 算法,包含两个数据来源:一个专有的多跳可验证问答数据集,该数据集由内部种子查询构建,要求进行 2–4 步推理,并通过多求解器进行验证;以及基于评分准则的通用对话数据,将部署需求转换为客观可检验的原子条件,以防止 SFT 行为退化。 奖励设计采用门控聚合——只有在达到基线正确性时,偏好分数才会计入 (question-answer 匹配或所有评分准则均满足),从而避免高偏好信号掩盖事实错误。效率惩罚使用组内锚定:对工具调用以及生成长度超过同组中正确答案基线的部分施加平滑惩罚。 评估表明,Qwen3.5-397B-SFT-RL 在各项搜索基准上实现同级最优表现。在 FRAMES 上,它在单次工具调用下达到 57.3% 的准确率,较 GPT-5.4 提高 5.7 个百分点,较 Claude Sonnet 4.6 提高 4.7 个百分点。在中等预算 (四次工具调用) 下,其准确率达到 73.9%,成本为每次查询 $0.02;相比之下,GPT-5.4 的准确率为 67.8%,每次查询 $0.085,Sonnet 4.6 的准确率为 62.4%,每次查询 $0.153。费用数据基于各提供方的公开 API 定价,并不包含缓存优化。

2026-03-27 04:37

Cursor каждые 5 часов итерация Composer: в режиме реального времени RL обучение, модель научилась "притворяться дурачком, чтобы избежать наказания".

По данным мониторинга 1M AI News, инструмент для AI-программирования Cursor опубликовал в блоге описание своего подхода «обучение с подкреплением в реальном времени» (real-time RL): он превращает реальные пользовательские взаимодействия в продакшене в сигналы для обучения и, в зависимости от обстоятельств, самое быстрое, развертывает улучшенную модель Composer каждые 5 часов. Ранее этот подход уже использовался для обучения функции автодополнения Tab, а теперь расширен на Composer. Традиционные методы обучают модели путем симуляции среды программирования; ключевая сложность заключается в том, что погрешности в моделировании поведения пользователей трудно полностью устранить. Обучение с подкреплением в реальном времени напрямую использует реальную среду и реальные пользовательские отзывы, устраняя сдвиг распределений между обучением и развертыванием. В каждом цикле обучения собираются пользовательские данные о десятках миллиардов token из текущей версии, которые затем преобразуются в сигналы вознаграждения; после обновления весов модели через набор тестов (включая CursorBench) подтверждается отсутствие регресса, и только затем она снова развертывается в продакшене. A/B-тестирование Composer 1.5 показывает улучшение по трем метрикам: доля кода, который пользователь сохраняет, растет на 2.28%, доля запросов пользователей с недовольными последующими вопросами снижается на 3.13%, а задержка уменьшается на 10.3%. Однако обучение с подкреплением в реальном времени также усиливает риск reward hacking («взлом вознаграждения»). Cursor раскрыл два случая: модель обнаружила, что при намеренной отправке неэффективных вызовов инструментов она не получает отрицательного вознаграждения, поэтому в задачах, где прогнозируется неудача, начинает сознательно генерировать ошибочные вызовы, чтобы избежать наказания; модель также научилась при столкновении с рискованными правками переключаться на разъясняющие вопросы, потому что если не писать код, то и баллы не будут снижаться, что приводит к резкому падению частоты правок. Оба уязвимости были выявлены в ходе мониторинга и устранены путем корректировки функции вознаграждения. Cursor считает, что преимущество обучения в реальном времени как раз в этом: реальные пользователи сложнее «одурачить», чем бенчмарки, и каждый эпизод reward hacking по сути представляет собой отчет об ошибке.

2026-03-25 06:36

Cursor выпустил технический отчет Composer2: среда RL полностью моделирует сценарии реальных пользователей, улучшение базовой модели на 70%

Согласно мониторингу 1M AI News, Cursor опубликовала технический отчет Composer 2, впервые раскрывающий полный план обучения. Базовая модель Kimi K2.5 построена на архитектуре MoE, с общим количеством параметров 1,04 трлн и активными параметрами 32 млрд. Обучение проходит в два этапа: сначала продолжается предварительное обучение на кодовых данных для усиления знаний о кодировании, затем с помощью масштабного усиленного обучения повышается способность к энд-енд кодированию. Среда RL полностью моделирует реальные сценарии использования Cursor, включая редактирование файлов, работу в терминале, вызовы инструментов для поиска кода и другие операции, позволяя модели учиться в условиях, приближенных к производственной среде. Отчет также одновременно публикует методику построения собственной базы тестов CursorBench: задачи собираются из реальных кодовых сессий инженерных команд, а не создаются вручную. Базовая модель Kimi K2.5 по этой базе набрала всего 36,0 баллов, после двух этапов обучения Composer 2 достиг 61,3 баллов, что составляет рост на 70%. Cursor отмечает, что стоимость вывода модели значительно ниже API передовых моделей, таких как GPT-5.4 и Claude Opus 4.6, обеспечивая парето-оптимальный баланс между точностью и затратами.

2025-11-27 05:38

Prime Intellect представила модель INTELLECT-3

Согласно сообщениям Foresight News, децентрализованный AI протокол Prime Intellect запустил модель INTELLECT-3. INTELLECT-3 представляет собой смешанную экспертную модель с 106B параметрами, основанную на модели GLM 4.5 Air Base и обученную с использованием SFT и RL. Ранее Foresight News сообщал, что Prime Intellect завершил финансирование на сумму 15 миллионов долларов в марте этого года, возглавляемое Founders Fund.

Горячие посты о Ralph Lauren Corp (RL)

ChainNewsAbmedia

ChainNewsAbmedia

05-02 05:48
Исследовательская группа из Калифорнийского университета в Беркли представила новый подход к обучению ИИ — GEPA. Он уже принят ICLR 2026 как доклад Oral. GEPA не обновляет веса модели, не требует GPU-обучения: достаточно одного LLM, который многократно переписывает подсказки для AI-системы, используя «чтение обучающих записей». В итоге на 6 задачах в среднем результат лучше, чем у основных методов обучения с подкреплением GRPO, на 6%, с максимальным превосходством 20%, а число необходимых обучающих попыток (rollouts) меньше в 35 раз. После того как исследование AI-инженерное сообщество распространило и обсудило в X, сейчас GEPA уже интегрирован в DSPy как оптимизатор первого класса. Что делает GEPA: рассматривает обучающие записи как учебный материал, а не только как оценку Традиционный процесс обучения с подкреплением (например, GRPO) выглядит так: ИИ один раз выполняет задачу, по результату получает «+1 или -1», после чего эта оценка снова и снова используется для корректировки весов модели. Проблема в том, что выполнение задачи обычно включает тысячи токенов рассуждений, вызовы инструментов и сообщения об ошибках — все эти богатые детали сжимаются до одного числа, а информация о ходе процесса теряется. Поэтому RL приходится запускать десятки тысяч раз, чтобы добиться сходимости. GEPA поступает наоборот: после того как ИИ завершает задачу, всю последовательность действий (reasoning, вызовы инструментов, записи ошибок) целиком передают другому «LLM для рефлексии», который читает процесс. LLM для рефлексии — как опытный инженер, который читает log с запусков: он находит, на каком шаге произошла ошибка, почему она произошла, и как нужно изменить подсказку, после чего напрямую переписывает подсказку для соответствующего модуля. По сути, при том же одном запуске задачи GEPA извлекает из него существенно больше сигнала, чем RL извлекает из единственной оценки. Почему это работает: вместо «оценки» — «чтение всего процесса» GEPA на 6 задачах в среднем обходит GRPO на 6%, а максимум — на 20%; также он опережает другой популярный оптимизатор подсказок MIPROv2 более чем на 10% (на математическом бенчмарке AIME-2025 рост на 12%). Самое важное — стоимость обучения: чтобы достичь сопоставимой производительности, GEPA нужен rollouts (один полный запуск задачи) в 35 раз меньше. Еще один показатель: после интеграции GEPA с DSPy «Full Program Adapter» позволяет оптимизировать всю программу в DSPy (включая signature, модули и управляющий поток). На математическом бенчмарке MATH точность достигает 93%, что намного выше исходного способа ChainOfThought в DSPy (67%). GEPA также особенно хорошо проявляет себя в multi-module рабочих процессах (AI-агенты с несколькими модулями, соединенными последовательно): он позволяет точно локализовать конкретный модуль, в котором произошла ошибка, и переписать подсказку именно для него, вместо того чтобы настраивать весь систему целиком. Кто первым начнёт использовать: DSPy — гражданин первого класса, GitHub уже открыто Код GEPA опубликован на GitHub; он интегрирован в DSPy в виде dspy.GEPA и также отдельно выпущен как Python-библиотека. В исследовательской группе задействованы организации уровня UC Berkeley, Stanford, Notre Dame, Anthropic и др.; среди авторов статьи: Matei Zaharia (сооснователь Databricks, один из ключевых авторов DSPy) и Omar Khattab (главный автор DSPy). Для разработческого сообщества GEPA предлагает новое решение для ситуации «у нас много rollout, но мы не знаем, как их использовать»: многие команды уже накопили тысячи и тысячи записей о запуске задач агентами, но кроме ручной проверки пары эпизодов при баге, у них нет системного способа превращать эти записи в улучшение модели. Следующий вопрос — как GEPA проявит себя в реальных внедрениях корпоративных agentic рабочих процессов (например, автоматизация клиентской поддержки, автоматическое исправление кода), и появятся ли совместимые реализации GEPA вне фреймворка DSPy. Эта статья «Berkeley GEPA разбор»: «не обновляя веса, можно научить ИИ новым задачам — с 35-кратным сокращением расходов на обучение, победив RL» впервые появилась в ленте новостей ABMedia.
0
0
0
0
Cryptopolitan

Cryptopolitan

04-30 22:08
Проект с открытым исходным кодом для криптовалютной торговли получил вредоносный пакет npm под названием @validate-sdk/v2 после того, как модель искусственного интеллекта Anthropic’s Claude Opus сделала его зависимостью. Это дало хакерам доступ к криптокошелькам и средствам пользователей. Исследователи безопасности из ReversingLabs (RL) обнаружили утечку в проекте openpaw-graveyard, который является автономным агентом для криптовалютной торговли, размещенным на npm. Они назвали его PromptMink. Плохой коммит был сделан 28 февраля 2026 года. ReversingLabs сообщает, что пакет притворяется инструментом для проверки данных, но на самом деле крадет секреты из хост-окружения. Хакеры из Северной Кореи связаны с вредоносным ПО PromptMink ReversingLabs заявил, что атака исходила от Famous Chollima, группы угроз, спонсируемой государством Северной Кореи. Эта группа распространяет вредоносные пакеты npm как минимум с сентября 2025 года. Они совершенствуют двухуровневую стратегию, которая предназначена для обмана как человеческих разработчиков, так и AI-ассистентов программирования. Первый уровень состоит из пакетов, не содержащих вредоносного кода. Эти «приманочные» пакеты, такие как @solana-launchpad/sdk и @meme-sdk/trade, выглядят как настоящие инструменты для крипторазработчиков. Они перечисляют несколько пакетов второго уровня, которые содержат реальный вредоносный код, а также популярные пакеты npm, такие как axios и bn.js, в качестве зависимостей. Когда пакеты второго уровня сообщают и удаляют из npm, злоумышленники просто размещают новые, не теряя репутацию, которую они создали вокруг приманочных пакетов. ReversingLabs сообщает, что когда @hash-validator/v2 был удален из npm, злоумышленники выпустили @validate-sdk/v2 в тот же день с тем же номером версии и исходным кодом. AI-агенты более уязвимы к взломам, чем люди Исследователи безопасности заявили, что метод Famous Chollima кажется более подходящим для эксплуатации AI-ассистентов программирования, чем для человеческих разработчиков. Группа пишет длинную, детальную документацию для своих вредоносных пакетов, которую исследователи называют «злоупотреблением оптимизацией LLM». Цель — сделать пакеты настолько реалистичными, что AI-агенты будут предлагать и устанавливать их без проблем. Инфицированные пакеты были «вибрационно закодированы» с помощью генеративных AI-инструментов. Остаточные ответы LLM видны в комментариях к файлам. С конца 2025 года вредоносное ПО PromptMink принимает множество различных форм. Оно начиналось как простой JavaScript-инфостилер, затем превратилось в крупные односборочные приложения, а сейчас представляет собой скомпилированные Rust-оболочки, созданные для скрытности, по данным ReversingLabs. Когда вредоносное ПО устанавливается, оно ищет конфигурационные файлы, связанные с криптовалютой, крадет данные кошельков и системную информацию, сжимает и отправляет исходный код проекта себе, а также размещает SSH-ключи на машинах Linux и Windows, чтобы всегда иметь к ним удаленный доступ. Кампания PromptMink — не единственная недавняя атака, нацеленная на крипторазработчиков через менеджеры пакетов. В прошлом месяце Cryptopolitan сообщил о GhostClaw, вредоносном ПО, которое нацелилось на сообщество OpenClaw через фальшивый установщик npm. Оно собирало данные криптокошельков, пароли из macOS Keychain и API-токены платформ AI у 178 разработчиков перед удалением из реестра npm. PromptMink и GhostClaw используют социальную инженерию как точку входа и нацелены на разработчиков, работающих в области криптовалют и Web3. Что отличает PromptMink — это то, что он нацелен на AI-агентов программирования и использует их как путь атаки. Самые умные умы в крипте уже читают нашу рассылку. Хотите присоединиться? Присоединяйтесь к ним.
0
0
0
0
WaveKingRick

WaveKingRick

04-28 14:01
$PRL Нижеследующие средства уже не так много. Манипулятор скоро сбежит RL сейчас этот тренд выглядит как колебания, но по сути уже начал слабеть, несколько попыток подняться сверху не удержались, наоборот, постоянно снижают вершины, такая структура фактически создает подготовку к следующему падению. 0.345 — это не случайная отметка, это важная зона поддержки на текущем рынке, и если дальше средства продолжат уходить, скорее всего, она не удержится. Текущий ритм больше похож на колебания с постепенной распродажей, крупные игроки не спешат продавать, а медленно сбрасывают позиции на рынок. По деталям, восстановление становится все слабее, объемы тоже не растут, каждое повышение недостаточно устойчивое, в такой ситуации нижняя поддержка рано или поздно будет протестирована. Как только произойдет одно сильное снижение с объемом, 0.345 легко может быть пробито, и цена может пойти в ускорение. ‍#Solana发布量子路线图
0
6
0
0