Версия 5.1 |
|||||||||||||||||||||||||||||||||
|
|
Если некоторые из обслуживаемых вами Доменов имеют большое число Пользователей (10,000 или больше), то целесообразно хранить пользовательские данные в Поддиректориях для Пользователей, а не в "плоской" директории домена. Эта рекомендация основывается на методе, который файловая система использует для обслуживания списка записей в индексе директории; максимальное рекомендуемое число записей сильно зависит от типа используемой файловой системы.
Например, файловая система с распределённым индексом директории в состоянии эффективно работать с большим количеством записей, чем файловая система, которая имеет один плоский файл с индексом директории. Некоторый файловые системы могут легко работать с индексами, имеющими более 50,000 записей, тогда как другие существенно замедляют свою работу уже при 1,000.
Этот же принцип применяется к сайтам с 2,000 доменов в сервере/кластере или более. При таком сценарии рекомендуется использовать Поддиректории для Доменов
Вы можете хранить поддиректории на нескольких логических томах; если это необходимо для обеспечения требуемого объема или производительности - просто замените передвигаемые поддиректории символьными ссылками на них. Вы так же можете передвинуть директории с доменами из директории Domains и заменить их символьными ссылками.
Если предполагается, что число сообщений, доставляемое локальным пользователям CommuniGate Pro, превысит уровень 1 сообщения в секунду, то вы должны разместить больше "процессоров" в Модуле Местной Доставки. Это особенно важно для конфигураций, обрабатывающих большой входной SMTP трафик (часто встречающихся в тестовых средах для оценки производительности). Недостаточное число процессоров (нитей) для модуля Местной Доставки может привести к быстрому росту Очереди и большим задержкам в доставке сообщений. Вы должны наблюдать за работой модуля Местной Доставки и выделять больше процессоров (нитей) этому модулю, если вы видите, что в модуле Очередь выросла больше чем на 200-300 сообщений. Не выделяйте дополнительные нити если, например, у вас есть 10 процессоров для Местной Доставки и вы видите ожидающую Местной Доставки очередь из 200 сообщений; такая очередь приведет всего лишь к к 1-2 секундной задержке в доставке. Увеличивайте число нитей Местной Доставки только в том случае, если вы видите, что Очередь растет.
Некоторый типы массивов для хранения данных работают лучше при большом числе параллельно работающих нитей. Например, существуют некоторые массивы с сетевыми файловыми системами, которые могут доставлять сообщения быстрее со 100 процессорами Местной Доставки, а не с 10 для того же числа сообщений. Запросите производителя системы хранения данных дополнительную информацию об оптимальном числе параллельно выполняющихся операций записи для каждой из систем, обращающихся к массиву, и установите число процессоров Местной Доставки CommuniGate Pro в соответствии с этим числом. Так как процессоры Местной Доставки статичны (указанное число процессоров будет существовать все время, пока живет процесс), важно указать достаточное количество процессоров, но не растрачивать системные ресурсы на их чрезмерное количество.
Администраторы высоконагруженных Серверов могут выключить опцию Обновлять Консервативно (расположенную в панели Локальные Пользователи на странице Прочее в области Установки. Выключение этой опции уменьшает нагрузку на подсистему ввода/вывода.
При крупных внедрениях большое число одновременно работающих пользователей является одной из самых больших проблем. Для того, что бы оценить сколько пользователей вы можете обслуживать одновременно, вы должны примерно представлять какими услугами будут в основном пользоваться ваши клиенты.
Это число не очень велико, но сессии POP3 создают высокую нагрузку на дисковую и сетевую подсистемы ввода/вывода: после аутентификации, POP3 сессия мало чем отличается от простой "загрузки файлов".
Протокол IMAP является протоколом "доступа к почте", а не протоколом "скачивания почты". IMAP пользователи проводят существенно больше времени, оставаясь на связи с сервером. В корпоративной среде, пользователи могут держать свои IMAP сессии открытыми часами, а то и сутками. Хотя такие неактивные сессии не создают никакую нагрузку ни на вашу дисковую или сетевую подсистему ввода/вывода, ни на центральный процессор, для каждой сессии все же требуется открытое сетевое соединение и обрабатывающая его нить на сервере. Так как IMAP протокол позволяет пользователям производить операции поиска на сервере, IMAP пользователи могут так же потреблять много ресурсов центрального процессора, если они часто пользуются такой возможностью.
При поддержке большого количество IMAP или POP соединений, важно настроить много IMAP и POP каналов, для того, что бы позволить большому количеству пользователей работать одновременно. Некоторые современные IMAP клиенты и MAPI-Коннекторы могут даже открывать несколько соединений для одного пользователя, и каждое из них учитывается в общем количестве используемых IMAP каналов. К счастью, IMAP и POP каналы создаются только в момент их использования, так что если число IMAP и POP каналов установлено в 10,000, а используется только 2,000, то системные ресурсы не используются - однако, будьте осторожны, что бы не устанавливать это значение ниже определённой границы, когда ваша система будет не в состоянии обслуживать новые соединения и даже может прекратить отвечать на запросы пользователей, уже установивших соединение. Настройки IMAP и POP каналов задают некоторый лимит, защищающий ресурсы вашей системы (или кластера) от перегрузки в случае пика или при атаках на отказ в обслуживании.
Это позволяет Серверу использовать всего лишь 100 HTTP соединений для обслуживания 3,000 открытых сессий (или даже больше).
CommuniGate Pro так же поддерживает опцию HTTP 1.1 "Keep Alive", которая задаётся на странице Установки в Веб Интерфейсе Пользователя и называется "Поддерживать 'Keep-Alive'". Работа в HTTP Keep-Alive сессии для Пользователей, работающих через Веб Интерфейс приведёт к тому, что каждая WebUser сессия будет держать одно или более открытых соединений браузера пользователя с сервером в течении всей сессии. Этот метод не рекомендуется использовать на загруженных системах, так как он потребляет значительные ресурсы центрального процессора и операционной системы; однако, если система в состоянии справиться этой повышенной нагрузкой, то он может быть полезным для оптимизации времени ответа системы на запросы WebUser Клиента. В Кластере соединения Keep-Alive могут обслуживаться только на Frontend Серверах.
Для того, что бы оптимизировать SIP и RTP производительность, Сервер CommuniGate Pro должен работать на современной системе с адекватным процессором и объемом памяти. Если большая часть трафика, обслуживаемого CommuniGate Pro, является сигнальным трафиком SIP, то даже однопроцессорный сервер в состоянии будет обслуживать до 100 вызовов в секунду. Однако, в случае если осуществляется большое количество операций медиа-проксирования, SIP и RTP проксирования, прохождения NAT, а также активно используются функции АТС, то требования к памяти, пропускной способности сети и особенно к производительности центрального процессора сильно возрастают.
Если потребуется, то увеличьте число процессоров, обслуживающих Транзакции SIP Сервера и Транзакции SIP Клиента, а так же число процессоров Сигналов.
Это нити являются "статичными", что означает, что нити создаются независимо от того, используются они или нет, потребляя некоторое количество памяти для своих нужд.
При оптимизации производительности системы следует также уделить внимание некоторым настройкам ядра системы и TCP/UDP стека, изменяя которые, можно добиться как существенного увеличения числа одновременно обслуживаемых сетевых соединений, так и повышения количества открытых дескрипторов файлов, обрабатываемых CommuniGate Pro. Большинство операционных систем позволяют регулировать эти опции; методы, которые используются для этой цели, сильно отличаются от системы к системе, и, возможно, в некоторых случаях вам потребуется обратиться к производителю системы или провести небольшое исследование, что бы выяснить, каким образом делается в используемой вами системе.
Число доступных дескрипторов файлов должно быть примерно в два раза больше, чем число одновременных IMAP, POP, SMTP, SIP/RTP и других используемых соединений. Вы также должны быть уверены, что операционная система в состоянии эффективно открывать много TCP/UDP сокетов одновременно - некоторые ОС имеют "ассоциативный массив" ("хеш-таблицу") обслуживаемых сокетов, и размер этого массива должен быть задан больше, чем число требуемых сокетов. В большинстве случаев 8192 сокета и 16384 открытых дескрипторов файлов на процесс будет вполне достаточно, даже если система работает под большой нагрузкой. Избегайте чрезмерного увеличения этих значений, так как в большинстве случаев это приводит к повышенному потреблению памяти. Снятие в оболочке лимита на число открытых дескрипторов файлов также может привести к проблемам на некоторых операционных системах, так как это может вывести дескрипторы файлов за 32-битные или 64-битные значения, что, в свою очередь, может привести к повышенному расходу памяти и ресурсов центрального процессора.
Если предполагается обслуживать большое число TCP/IP соединений, то важно проверить время ожидания сервера перед высвобождением логически закрытого TCP/IP соединения. Если это время слишком велико, то на эти "мертвые" сокеты могут быть израсходованы все TCP/IP ресурсы ОС; все новые соединения будут отвергаться на уровне ОС, так что Сервер CommuniGate Pro будет даже не в состоянии предупредить вас о том, что это происходит.
Эта проблема может наблюдаться даже на сайтах, обслуживающих всего лишь несколько сотен пользователей. Это свидетельствует о том, что некоторые из клиентов настроили свои почтовые программы на слишком частые соединения с сервером. Если клиентская почтовая программа соединяется с сервером каждую минуту, а время TIME_WAIT сервера установлено в 2 минуты, то число "мертвых" сокетов будет все время расти, и, в конце-концов, потребит все TCP/IP ресурсы системы.
По умолчанию TIME_WAIT на многих системах имеет значение в 120 или 240 секунд; некоторые операционные системы стали по умолчанию устанавливать значение TIME_WAIT в 60 секунд, хотя, видимо, значение в 20-30 секунд является достаточно безопасным.
Проблема TIME_WAIT особенно часто встречается в системах Windows. В отличие от большинства Unix систем, в Windows NT нет стандартной настройки, отвечающей за изменение интервала TIME_WAIT. Для изменения этой настройки, вы должны создать в Windows NT ключ в Системном Реестре (информация взята с сайта http://www.microsoft.com):
Описание: Этот параметр задаёт продолжительность времени, которое соединение будет оставаться в состоянии TIME_WAIT при закрытии. Пока соединение находится в состоянии TIME_WAIT, сокет не может быть использован снова. Это состояние известно так же как состояние 2MSL, и, согласно RFC, значение должно быть в два раза больше максимального времени жизни сегмента в сети. Дополнительную информацию о MSL смотрите в RFC793.
В большинстве операционных систем (включая Linux, FreeBSD, Solaris, Windows) поддержка HyperThreading не реализована полностью.
В отличие от многоядерных и/или многопроцессорных технологий, использование HyperThreading даёт очень маленький (если вообще даёт) выигрыш в производительности, но является причиной множества проблем (фатальные сбои в библиотеке нитей, плохая производительность файловой системы под большой загрузкой и т.д.).
Отключите HyperThreading при помощи настроек в BIOS.
Для того, что бы отрегулировать параметры DNS Клиента, используйте Веб Интерфейс Администратора. Откройте в области Установки страницу Сеть, затем откройте страницу DNS Клиент.
Вы можете попытаться использовать различные значения для Параллельных Запросов: в зависимости от установок вашего DNS сервера(ов), увеличение числа параллельно выполняемых запросов до 10-20 может привести к падению производительности сервера.
Если средний размер сообщения, пересылаемого через SMTP больше, чем 20K килобайт, то вы должны быть также осторожны при выборе числа SMTP каналов (нитей) для отправки сообщений. Слишком большое число одновременно пересылаемых сообщений может исчерпать пропускную способность вашей сети, что в результате также приведет к общему снижению производительности системы. 500 каналов, отправляющих данные на удалённые сайты с относительно медленными подключениями в 512 кбит/секунду могут порождать да 250 Мбит/секунду исходящего трафика с вашего сайта. Обычно трафик намного меньше, так как исходящие каналы затрачивают довольно много времени на обмен параметрами устанавливаемого соединения и передачу информации из конвертов сообщений. Но как только средний размер сообщения становится больше, основное время каналы начинают затрачивать на передачу реальных, а не служебных данных, что приводит к увеличению TCP трафика, порождаемого каналами.
Если на вашей системе установлено достаточное количество памяти, то при использовании Внешних Фильтров Сообщений SMTP - таких, как антивирусы, средства борьбы со спамом или другие средства фильтрования содержания сообщений, SMTP загрузка может быть оптимизирована путем размещения директории для временных файлов, используемых этими дополнительными модулями, в оперативной памяти или на специальной файловой системе типа tmpfs. Так как в CommuniGate Pro все сообщения, ожидающие своей очереди отправки, хранятся в реальной директории Queue, то размещение директории для временных файлов дополнительных модулей в оперативной памяти будет безопасным, поскольку в этих директориях никогда не содержится единственный экземпляр сообщения. И даже в случае ошибки, отказа по питанию или фатального сбоя в работе сервера CommuniGate Pro, любое недоставленное сообщение будет всегда ждать своей очереди на "устойчивом" носителе в нормальной директории Queue.
Каждое сетевое соединение нуждается в одном дескрипторе сетевого сокета для процесса сервера. В системах Unix общее число сокетов и файлов, открываемых одним процессом, ограничено.
Когда Сервер CommuniGate Pro запускается, он пытается установить для себя эти лимиты как можно выше, а затем, если он видит, что установленный лимит может достигать общего лимита всей системы, то он постепенно уменьшает этот лимит (так как если Сервер CommuniGate Pro заберёт для себя все доступные дескрипторы, то вероятнее всего это приведет к краху ОС Сервера). Используемый лимит записывается в Журнал работы CommuniGate Pro.
Для увеличения максимального числа дескрипторов файлов и сокетов, которые может открывать процесс Сервера CommuniGate Pro, ознакомьтесь с инструкциями ниже.
Каждое сетевое соединение обрабатывается сервером как нить. Каждая нить имеет свой собственный стек; на большинстве платформ нити CommuniGate Pro имеют стек в 128 килобайт. Большая часть памяти стека не используется, так что он не требует выделения реальной памяти, однако их запросы на память суммируются, что приводит к повышенному выделению виртуальной памяти. Большинство ОС не позволяет обрабатывать виртуальную память больше определённого лимита. Обычно, этот лимит бывает равен реальному размеру память плюс размер файла подкачки. Так, на системе с размером файла подкачки в 127 мегабайт и с 96 мегабайтами оперативной памяти, максимальная виртуальная память может составить около 220 мегабайт. Так как файл подкачки используется всеми процессами ОС, то эффективная виртуальная память на такой системе будет около 100-150 мегабайт, и, вероятнее всего, Сервер CommuniGate Pro сможет создать около 500-1000 нитей.
На 32-битных компьютерах, 4 гигабайта виртуальной памяти является теоретическим пределом адресуемой памяти (хотя в реальности лимит виртуальной памяти для процессов пользователя зачастую равен 2 гигабайтам), и выделение более чем 4 гигабайтов дискового пространства под файл подкачки не даст никаких преимуществ. Так как сегодня стоимость памяти существенно упала, то для того, что бы получить максимум доступной памяти, для 32-битных систем рекомендуется устанавливать 4 гигабайта оперативной памяти, что позволит использовать одному процессу до 2 гигабайт (или больше) виртуальной памяти. При поддержке большого количества одновременных IMAP, POP3 или SIP/RTP соединений, в дополнение к другим потребностям в памяти, процесс CGServer будет расти в размере пропорционально общему размеру выделяемого под каждую нить стека. При необходимости поддержки более чем 4000 нитей, целесообразно использовать такую операционную систему, которая позволяет выделять более чем 2 гигабайта виртуальной памяти для процесса CGServer, и конечно, в такую систему должно быть установлено 4 гигабайта оперативной памяти.
В течении POP3 или IMAP сессии доступа открывается одна из папок пользователя. Если эта папка является почтовым ящиком в формате текстового файла, то открывается соответствующий файл. В течении SMTP сессии для входящего сообщения создаётся временный файл, и он остаётся открытым до тех пор, пока сообщение не получено полностью. Таким образом, в системах Unix общее число открытых POP, IMAP, и SMTP соединений не может превышать половины от максимального числа дескрипторов сокетов/файлов, возможных для одного процесса. Для высокопроизводительных систем, возможно, целесообразным будет установить значение числа дескрипторов на один процесс равным 8192 или даже больше.
Хотя сессия WebUser не требует сетевого соединения (и, следовательно, выделенного сокета и нити), в ней может быть открыта более чем одна папка. (При использовании опции Поддерживать 'Keep-Alive' каждая WebUser сессия также будет потреблять как минимум одно сетевое соединение))
В системах Unix, когда Сервер обнаруживает, что число открытых сетевых сокетов и дескрипторов файлов подходит близко к пределу, он начинает отвергать входящие соединения и делает соответствующие записи об этой проблеме в Журнал.
В этом разделе объясняется, как оптимизировать ядро для наиболее часто используемых вместе с CommuniGate Pro операционных систем и параметры её TCP стека.
Наиболее часто встречающимися ограничениями являются:Пожалуйста, уточните у производителя операционной системы, являются ли предлагаемые изменения безопасными для её устойчивой работы и всегда тестируйте изменения на тестовой системе прежде чем использовать их на работающем сервере. Различия в версиях операционных систем, установленных текущих обновлениях, аппаратном обеспечении и требованиях к рабочей нагрузке могут привести к отличиям оптимальных значений от рекомендуемых здесь. В этих примерах не всегда приводятся оптимальные значения для каждой конкретной ситуации.
SUPPLPARAMS="--DefaultStackSize 131072 --useNonBlockingSockets --closeStuckSockets --CreateTempFilesDirectly 10" ulimit -n 16384
Приводимые ниже строки подойдут для большинства систем Solaris, работающих под большой загрузкой: Хорошей оценкой для установки этих значений являются значения между одно- и двукратной ожидаемой пиковой загрузки системы.
* system file descriptor limit (setting the max setting to 32768 may * be better in some instances) set rlim_fd_cur=4096 set rlim_fd_max=16384 * tcp connection hash size set tcp:tcp_conn_hash_size=16384Обратите внимание: изменения в /etc/system вступят в силу только после перезагрузки системы.
# solaris 9/10 uses a default of 49152 ndd -set /dev/tcp tcp_recv_hiwat 49152 # or 65536 ndd -set /dev/tcp tcp_xmit_hiwat 49152 # or 65536 # increase the connection queue ndd -set /dev/tcp tcp_conn_req_max_q 512 ndd -set /dev/tcp tcp_conn_req_max_q0 5120 # decrease timers ndd -set /dev/tcp tcp_fin_wait_2_flush_interval 135000 ndd -set /dev/tcp tcp_time_wait_interval 60000 ndd -set /dev/tcp tcp_keepalive_interval 30000 ## naglim should likely only be disabled on Backends ## 1=disabled, default is 53 (difficult to confirm) # ndd -set /dev/tcp tcp_naglim_def 1
Дополнительную информацию смотрите в статье Microsoft Support Article Q196271.
В Linux, файл Startup.sh по умолчанию находится в/var/CommuniGate/Startup.sh. Возможно, вам потребуется создать его. Этот файл читается сценарием запуска /etc/init.d/CommuniGate и исполняется при загрузке. Ниже приводится файл Startup.sh для CommuniGate Pro версии 4.3 или более поздней, подходящий для Linux версий 2.4 или выше. Возможно, вы столкнетесь с ситуацией, при которой вам потребуется больше дескрипторов файлов; в этом случае значение "ulimit -n" можно безопасно увеличивать до 32768.
SUPPLPARAMS="--DefaultStackSize 131072 --useNonBlockingSockets --closeStuckSockets --CreateTempFilesDirectly 10" ulimit -n 16384
До версии 2.2. ядро Linux позволяло открывать только 256 дескрипторов файлов. Если вы хотите, что бы ваш сервер обрабатывал более 100 TCP/IP соединений, используйте ядро Linux версии 2.2.x или выше для избегания проблемы "нехватки дескрипторов файлов".
Библиотеки нитей в Linux используют модель один-к-одному, так что каждая нить CommuniGate Pro является в действительности нитью ядра (фактически, "процессом"). Это не лучшее решение для очень больших систем, на которых должны работать несколько тысяч нитей.
Несмотря на то, что нити Linux обрабатываются ядром, в библиотеке нитей Linux так же имеется собственный диспетчер. По умолчанию, этот диспетчер использует статическую таблицу с 1024 записями; таким образом, невозможно создать более чем 1024 нити. Этого достаточно даже для довольно крупных сайтов, обслуживающих множество POP пользователей и пользователей, работающих через Интерфейс Веб Доступа, но может создать проблемы для сайтов, обслуживающих несколько сотен пользователей, работающих одновременно через IMAP. Для того, что бы увеличить это число, библиотека нитей Linux должна быть перекомпилирована с увеличенным значением параметра PTHREAD_THREADS_MAX.
Библиотека нитей Linux размещает стек нитей с шагом 2 мегабайта. Это не позволяет системе запускать более 1000 нитей на 32-битных компьютерах. Нитям CommuniGate Pro не требуется стек такого размера. Вы можете перекомпилировать библиотеку нитей Linux, уменьшив значение параметра STACK_SIZE до 128K килобайт.
LD_ASSUME_KERNEL=2.4.1 export LD_ASSUME_KERNEL
Ниже приводятся некоторые дополнительные регулировки для Linux с версией ядра 2.4. В большинстве поставок Linux, эти команды оболочки должны быть помещены в сценарий загрузки, выполняемый при старте системы. RedHat и некоторые другие поставки могут также иметь возможность настройки "sysctl" данных в файле /etc/sysctl.conf:
#!/bin/sh # Linux 2.4 tuning script # max open files echo 131072 > /proc/sys/fs/file-max # kernel threads echo 131072 > /proc/sys/kernel/threads-max # socket buffers echo 65536 > /proc/sys/net/core/wmem_default echo 1048576 > /proc/sys/net/core/wmem_max echo 65536 > /proc/sys/net/core/rmem_default echo 1048576 > /proc/sys/net/core/rmem_max # netdev backlog echo 4096 > /proc/sys/net/core/netdev_max_backlog # socket buckets echo 131072 > /proc/sys/net/ipv4/tcp_max_tw_buckets # port range echo '16384 65535' > /proc/sys/net/ipv4/ip_local_port_rangeОбратите внимание: при работе с ядром Linux версии 2.4 и 2.6 в случае, если вы не используете iptables в сервере CommuniGate Pro, вы можете добиться заметного улучшения производительности сетевой подсистемы перекомпилировав ядро без NETFILTER (iptables).
# LD_ASSUME_KERNEL=2.4.1 # export LD_ASSUME_KERNEL
Закомментировав эти строки, вы по умолчанию разрешите линкование библиотек нитей POSIX (размещенным в /lib/tls/).
Ниже приводятся некоторые дополнительные регулировки для Linux версий 2.6. В большинстве поставок Linux, эти команды оболочки должны быть помещены в сценарий загрузки, выполняемый при старте системы. RedHat и некоторые другие поставки могут также иметь возможность настройки "sysctl" данных в файле /etc/sysctl.conf:#!/bin/sh # Linux 2.6 tuning script # max open files echo 131072 > /proc/sys/fs/file-max # kernel threads echo 131072 > /proc/sys/kernel/threads-max # socket buffers echo 65536 > /proc/sys/net/core/wmem_default echo 1048576 > /proc/sys/net/core/wmem_max echo 65536 > /proc/sys/net/core/rmem_default echo 1048576 > /proc/sys/net/core/rmem_max # netdev backlog echo 4096 > /proc/sys/net/core/netdev_max_backlog # socket buckets echo 131072 > /proc/sys/net/ipv4/tcp_max_tw_buckets # port range echo '16384 65535' > /proc/sys/net/ipv4/ip_local_port_range
Ниже приводятся некоторые дополнительные регулировки, применимые как для FreeBSD 4, так и для FreeBSD 5.x/6.x.
SUPPLPARAMS="--DefaultStackSize 131072 --useNonBlockingSockets --closeStuckSockets --CreateTempFilesDirectly 10" ulimit -n 16384
Для установки параметров ядра при загрузке системы, может использоваться файл /boot/loader.conf.local:
# increase the TCP connection hash to a value just greater than peak needs # (this can be set higher if necessary) net.inet.tcp.tcbhashsize="16384"
Конфигурационный файл Загрузчика /boot/loader.conf должен быть изменён:
kern.maxdsiz="1G" # max data size kern.dfldsiz="1G" # initial data size limit kern.maxssiz="128M" # max stack size kern.ipc.nmbclusters="65536" # set the number of mbuf clusters net.inet.tcp.tcbhashsize="16384" # size of the TCP control-block hashtable
# cache dir locations, on by default vfs.vmiodirenable=1 # increase socket buffers kern.ipc.maxsockbuf=1048576 kern.ipc.somaxconn=4096 # increase default buffer size net.inet.tcp.sendspace=65536 net.inet.tcp.recvspace=65536 # decrease time wait net.inet.tcp.keepidle=300000 net.inet.tcp.keepintvl=30000 # increase vnodes kern.maxvnodes=131072 # increase maxfiles/maxfiles per process kern.maxfiles=131072 kern.maxfilesperproc=65536 # increase port range net.inet.ip.portrange.last=65535 # default: net.inet.ip.rtexpire: 3600 net.inet.ip.rtexpire=300 # decrease MSL from 30000 net.inet.tcp.msl=10000
Параметры ядра HP-UX могут, в зависимости от используемой версии HP-UX, устанавливаться с использованием различных механизмов. Следующие параметры ядра важны установить в значения большие, чем предполагаемая пиковая загрузка:
maxfiles Soft file limit per process maxfiles_lim Hard file limit per processes maxdsiz Maximum size of the data segment nfile Maximum number of open files ninode Maximum number of open inodes # suggested parameter settings maxfiles 4096 maxfiles_lim 32768 maxdsiz (2048*1024*1024) nfile 32768 ninode 32768Также рекомендуется уменьшить значение параметра TCP TIME_WAIT:
ndd -set /dev/tcp tcp_time_wait_interval 60000
Mac OS X устанавливает 6 мегабайтный лимит на "дополнительную" виртуальную память, запрашиваемую приложением. Этого количества недостаточно для сайтов, обслуживающих более, чем 2,000 пользователей, и вы должны увеличить этот лимит, указав в файле Startup.sh:
ulimit -d 1048576 ulimit -n 16384