Дослідники MIT кажуть, що всі алгоритми перевантажень мережі несправедливі
(Кредит: Getty Images)
Всі ми використовуємо більше даних, ніж будь -коли раніше, і пропускна здатність провайт провайдери сили на нас, щоб уповільнити людей - це лише інструмент, щоб заробити більше грошей. Законне управління мережею повинно виходити за рамки покарання людей за використання більшої кількості даних, але дослідники MIT кажуть, що алгоритми, які повинні робити, не так добре, як ми думали. Нещодавно опубліковане дослідження свідчить про те, що ці алгоритми неможливо справедливо розповсюджувати пропускну здатність.
Ми всі були там, намагаючись отримати достатню пропускну здатність під час використання піку для передачі відео або завантаження великих файлів. Ваші пристрої не знають, як швидко надсилати пакети, оскільки їм не вистачає інформації про мережеві умови вгору. Якщо вони надсилають пакети занадто повільно, ви витрачаєте доступну пропускну здатність. Якщо вони йдуть занадто швидко, пакети можуть бути втрачені, а обурення пакетів викликають затримки. Ви повинні покладатися на мережу, щоб коригувати, що може бути розчарованим, навіть незважаючи на те, що науковці та підприємства витратили роки на розробку алгоритмів, які повинні зменшити вплив насичення мережі. Ці системи, як і алгоритм BBR, розроблений Google, спрямовані на контроль за затримками з пакетів, що чекають у чергах в мережі, щоб переконатися, що всі отримують пропускну здатність.
Але чи може цей тип системи коли -небудь бути справедливим? Нове дослідження стверджує, що завжди буде хоча б один відправник, який накручує угоду. Це нещасне з'єднання не отримає даних, а інші отримують частку того, що є, проблема, відома як "голодування". Команда розробила математичну модель перевантаженості мережі та подала її всі алгоритми, які зараз використовуються для контролю заторів. Незалежно від того, що вони робили, кожен сценарій закінчився закриттям принаймні одного користувача.
Проблема, як видається, є переважною складністю Інтернету. Алгоритми використовують такі сигнали, як втрата пакетів для оцінки заторів, але пакети також можуть бути втрачені з причин, не пов'язаних з заторами. Ця затримка "тремтіння" є непередбачуваною і змушує алгоритм спіралі до голоду, кажуть дослідники. Це призвело до того, що команда визначила ці системи як "алгоритми зворотної затримки", щоб вказати на те, що голодування неминуче.
Автор дослідження та студент MIT Grad Venkat Arun пояснює, що режими невдачі, ідентифіковані командою, були присутніми в Інтернеті протягом багатьох років. Те, що про них ніхто не знав, говорить про труднощі проблеми. Існуючі алгоритми можуть не уникнути голоду, але дослідники вважають, що можливе рішення. Вони продовжують вивчати інші класи алгоритмів, які могли б зробити кращу роботу, можливо, прийнявши більш широкі варіації затримки в мережі. Ці самі інструменти моделювання також можуть допомогти нам зрозуміти інші невирішені проблеми в мережевих системах.
Читати далі
Генеральний директор Google обіцяє дослідити вихід найкращого дослідника ШІ
Генеральний директор Google Сундар Пічаї вдарився до фурору, пов’язаного з припиненням дії етичного інтелекту д-ра Тімніта Гебру, але його пам’ятка може мало допомогти ситуації.
Дослідник безпеки: "solarwinds123" Пароль, що залишив фірму вразливою у 2019 році
SolarWinds, компанія в центрі масового злому, який вразив урядові установи та корпорації США, точно не використовує передові методи паролів.
Дослідники розробляють Whitest Paint коли-небудь, щоб боротися з зміною клімату
Окрім того, щоб бути акуратним технічним подвигу, команда вважає, що нова біла фарба може допомогти вирішити зміну клімату шляхом збереження навантажень влади.
Дослідники: 2,5 млрд. Тіранозавр Рекс?
Новий аналіз з університету Каліфорнії Берклі оцінює, що під час крейдяного періоду було близько 20 000 дорослих тиранозаврів. Додайте, що понад мільйони років, і в цілому було багато 2,5 мільярда цих динозаврів.