Valve's Steam Deck OLED Will Be 'Intermittently' Out of Stock Because of the RAM Crisis
Feb. 17th, 2026 02:00 pmRead more of this story at Slashdot.
Read more of this story at Slashdot.

Тут попалось на YouTube (теперь ссылки на эту тему мне приходят потоком и это надолго) ролик некоего "исследователя", что можно, а что нельзя увидеть во сне. Ну, типа, нельзя читать - всё расплывается, отсутствуют запахи и вкусы и чувство боли. Читал, писал, ничего не расплывалось, боль чувствовал, запахи и вкусы - никаких проблем не возникало. Якобы, невозможно пользоваться мобильным и смотреть телевизор - или я такой уникум, или "исследователь" - идиот. Пользовался, писал сообщения на мобильном и их правил, мне звонили и я звонил в ответ, телевизор смотрел неоднократно. Да, действительно то, что не делал наяву и во сне не сможешь - поэтому в снах не пилотировал самолёт, не водил катер, но грёб лодочным веслом. Долго не мог понять почему в автомобиле во сне нет крыши и отсутствуют педали, а потом вспомнил этот аттракцион в горсаду - у автомобильчиков отсутствовала крыша и был только руль - во сне это привело к странным метаморфозам у обычного автомобиля. По ощущениям - я вижу больше, чем возможно в реальности, словно стал гораздо выше и обзор лучше, но есть серьёзная проблема - дорога под уклон, а тормоза отсутствуют! Когда снится полёт на самолёте почему отсутствует момент посадки - оказываюсь сразу в кресле у иллюминатора без обычной суеты и возни с ремнями, но никакого рёва двигателей, просто здание аэропорта и всё, что есть на лётном поле, убегает куда то назад, а сам самолёт продолжает стоять на месте! Пятиэтажный дом начинает ехать вдоль улицы вниз, в небе над проспектом часто происходит нечто малоприятное и непонятное, а вдалеке рушатся трубы ГРЭС... Читать нельзя? Приснилось, как покупаю брошюрку, открываю оглавление и вижу заголовок, что несколько статей посвящены столетнему юбилею Макса Фрая и тут него внезапно обнаруживается отчество - Модестович. Брошюрка на серой бумаге стоит рупь девятнадцать коп. Лезу в карман за деньгами, расплачиваюсь... Может это тоже невозможно сделать во сне, извините? Так я разрешений у этих "специалистов" не спрашивал - мои сны - мои правила. Мне часто снится, как я ищу что-то на сайтах, которые существуют в моих снах, а наяву - нет. Хотя мне и наяву всякой мистической фигни хватает... Матрица всё время сбоит, а до наладчиков не дозвониться в последнее время.
Read more of this story at Slashdot.
Here are three papers describing different side-channel attacks against LLMs.
“Remote Timing Attacks on Efficient Language Model Inference“:
Abstract: Scaling up language models has significantly increased their capabilities. But larger models are slower models, and so there is now an extensive body of work (e.g., speculative sampling or parallel decoding) that improves the (average case) efficiency of language model generation. But these techniques introduce data-dependent timing characteristics. We show it is possible to exploit these timing differences to mount a timing attack. By monitoring the (encrypted) network traffic between a victim user and a remote language model, we can learn information about the content of messages by noting when responses are faster or slower. With complete black-box access, on open source systems we show how it is possible to learn the topic of a user’s conversation (e.g., medical advice vs. coding assistance) with 90%+ precision, and on production systems like OpenAI’s ChatGPT and Anthropic’s Claude we can distinguish between specific messages or infer the user’s language. We further show that an active adversary can leverage a boosting attack to recover PII placed in messages (e.g., phone numbers or credit card numbers) for open source systems. We conclude with potential defenses and directions for future work.
“When Speculation Spills Secrets: Side Channels via Speculative Decoding in LLMs“:
Abstract: Deployed large language models (LLMs) often rely on speculative decoding, a technique that generates and verifies multiple candidate tokens in parallel, to improve throughput and latency. In this work, we reveal a new side-channel whereby input-dependent patterns of correct and incorrect speculations can be inferred by monitoring per-iteration token counts or packet sizes. In evaluations using research prototypes and production-grade vLLM serving frameworks, we show that an adversary monitoring these patterns can fingerprint user queries (from a set of 50 prompts) with over 75% accuracy across four speculative-decoding schemes at temperature 0.3: REST (100%), LADE (91.6%), BiLD (95.2%), and EAGLE (77.6%). Even at temperature 1.0, accuracy remains far above the 2% random baseline—REST (99.6%), LADE (61.2%), BiLD (63.6%), and EAGLE (24%). We also show the capability of the attacker to leak confidential datastore contents used for prediction at rates exceeding 25 tokens/sec. To defend against these, we propose and evaluate a suite of mitigations, including packet padding and iteration-wise token aggregation.
“Whisper Leak: a side-channel attack on Large Language Models“:
Abstract: Large Language Models (LLMs) are increasingly deployed in sensitive domains including healthcare, legal services, and confidential communications, where privacy is paramount. This paper introduces Whisper Leak, a side-channel attack that infers user prompt topics from encrypted LLM traffic by analyzing packet size and timing patterns in streaming responses. Despite TLS encryption protecting content, these metadata patterns leak sufficient information to enable topic classification. We demonstrate the attack across 28 popular LLMs from major providers, achieving near-perfect classification (often >98% AUPRC) and high precision even at extreme class imbalance (10,000:1 noise-to-target ratio). For many models, we achieve 100% precision in identifying sensitive topics like “money laundering” while recovering 5-20% of target conversations. This industry-wide vulnerability poses significant risks for users under network surveillance by ISPs, governments, or local adversaries. We evaluate three mitigation strategies – random padding, token batching, and packet injection – finding that while each reduces attack effectiveness, none provides complete protection. Through responsible disclosure, we have collaborated with providers to implement initial countermeasures. Our findings underscore the need for LLM providers to address metadata leakage as AI systems handle increasingly sensitive information.
