С каждым днем в мире появляется все больше интернет-пользователей, параллельно увеличивается количество данных и сервисов – Интернет расширяется безудержными темпами. Это становится возможным благодаря оптимизированному коду и новым технологиям. В статье рассмотрены те новейшие возможности, которые доступны в Сети уже сейчас.

Одна из наиболее перспективных и масштабных разработок, это проект OpenFlow - оригинальная модель Сети от Google. Обмен данными между информационными центрами происходит на основе собственного протокола OpenFlow. Разработанная Open Source технология может распределять огромные объемы данных более эффективно, чем традиционное программное обеспечение коммутаторов и роутеров.

Но обо всем по порядку.

Интернет будущего обязан быть идеальным: быстрым, надежным и безотказным. Это возможно только при использовании современных технологий, которые способны удовлетворить постоянно растущие требования Всемирной паутины. Разумеется солидные предприятия и отрасли не могут ждать, когда же наступит это время и вполне успешно решают все проблемы, так сказать, локально – в рамках своего производства или сферы услуг. Обычно для этого приглашается известный системный интегратор, который и обеспечивает надежную и безопасную связь. Например, все привыкли, что качество обслуживания в банках давно уже не зависит ни от капризов провайдеров, ни от перегруженности публичных линий связи.

Однако вернемся к более глобальным тенденциям мировой сети, касающихся всех пользователей. Некоторые нововведения реализуются уже сейчас. Это, например, увеличение количества IP-адресов на основе внедрения протокола IPv6, что происходит уже в течении уже нескольких последних лет. Развивается также и другой протокол - DNSSEC (аббревиатура от Domain Name System Security Extensions), обеспечивающий подлинность веб-адресов. Планируется прокладка нового кабеля, проходящего по дну морей Северо-Западного региона, что до 60 мс сократит время ответа расположенных в Японии серверов. Необходимую оптимизацию связи обеспечит также совокупность новых технологий разработки программного обеспечения на всех уровнях – от информационных центров до браузеров. Разумеется, для этого понадобится и соответствующее мощное оборудование, такое, как, например, сервер IBM.

Уже в следующем году будут реализованы новейшие достижения в области эффективного управления потоками данных.

Для обработки и передачи огромных потоков данных необходимо строго разграничить аппаратные и программные средства. Этим последнее время активно занимается компания Google. По информации, представленной Международным союзом электросвязи в ООН, в прошлом году в Интернет выходила третья часть всего населения планеты. При этом, пропускная способность Глобальной сети составляла примерно 90 000 Гбит/с. Причем показатели загруженности сети имеют устойчивую тенденцию к росту. Вопрос состоит в том, как осуществить эффективное управление такими потоками данных. И если на отдельном предприятии проблемы резкого роста информационных потоков можно решить установкой мощных серверов типа Xseries, то в глобальном масштабе потребуется полная замена привычной сетевой архитектуры. О том, как можно оптимизировать трафик между информационными центрами, компания Google (использующая от 6 до 10% всего мирового трафика) рассказала еще на прошедшей в апреле этого года конференции Open Network Summit. Но об этом – в следующий раз...

Добавить комментарий
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.
Опрос
Важна ли для вас технология доступа в интернет?
Ваш IP адрес
IP: 18.216.121.55

Не удалось определить ваше местонахождение по IP адресу.