Защита памяти и ядра в ОС ROSA
Статья перенесена из написанного ранее документа PDF с некоторыми дополнениями и изменениями.
Содержание
- 1 Защита памяти и ядра в ОС ROSA. Свод требований
- 2 Защита памяти и ядра ОС
- 2.1 Защита от просмотра адресов указателей
- 2.2 Отключение трассировки процессов
- 2.3 Ограничения на просмотр сообщений ядра
- 2.4 Противодействие уязвимостям типа Meltdown и Spectre
- 2.5 Отключение технологии Intel TSX
- 2.6 Защита от переполнения буфера
- 2.7 Защита от выполнения произвольного кода в ядре
- 2.8 Ограничение дисциплины линии
- 2.9 Защита алгоритма оптимизации памяти
- 2.10 Принудительная очистка страниц виртуальной памяти и рандомизация их выделения
- 2.11 Защита прямого доступа к памяти (DMA)
- 2.12 Отключение vsyscall
- 2.13 Настройка изоляции процессов (ASLR)
- 2.14 Настройка пользовательских пространств имен
- 2.15 Технология защиты ядра Lockdown
- 2.16 Ограничения для процессов при обработке ошибок
- 2.17 Отключение служебной ФС ядра debugfs
- 2.18 Монитор событий производительности ядра и его защита
Защита памяти и ядра в ОС ROSA. Свод требований
Здесь приведены рекомендации по настройке ядра и опций защиты памяти. Критически важно защищать ядро и системную память. Если допустить, что ядро или память скомпрометированы, то нет никаких гарантий в правильной работе любых механизмов безопасности и системы в целом.
Сводная информация с рекомендуемыми настройками для ядра ОС и проекция к Методическому документу ФСТЭК «Рекомендации по обеспечению безопасной настройки операционных систем Linux» от 25 декабря 2022 г. — приведена в таблице ниже:
№ п/п | Параметр и рекомендуемое значение | Интерфейс | См. документ ФСТЭК | См. раздел | Значение по умолчанию |
---|---|---|---|---|---|
1 | kernel.dmesg_restrict=1 |
/etc/sysctl.conf |
2.4.1 | См. | 0
|
2 | kernel.kptr_restrict=2 |
/etc/sysctl.conf |
2.4.2 | См. | 0
|
3 | init_on_alloc=1 |
/etc/default/grub |
2.4.3 | См. | Неактивно |
4 | slab_nomerge |
/etc/default/grub |
2.4.4 | См. | Неактивно |
5 | iommu=force iommu.strict=1 iommu.passthrough=0 |
/etc/default/grub |
2.4.5 | См. | Неактивно |
6 | randomize_kstack_offset=1 |
/etc/default/grub |
2.4.6 | См. | 0
|
7 | mitigations=auto,nosmt |
/etc/default/grub |
2.4.7 | См. | Неактивно |
8 | net.core.bpf_jit_harden=2 |
/etc/sysctl.conf |
2.4.8 | См. | 0
|
9 | vsyscall=none |
/etc/default/grub |
2.5.1 | См. | Неактивно |
10 | kernel.perf_event_paranoid=3 |
/etc/sysctl.conf |
2.5.2 | См. | 2
|
11 | debugfs=no-mount |
/etc/default/grub |
2.5.3 | См. | Неактивно |
12 | kernel.kexec_load_disabled=1 |
/etc/sysctl.conf |
2.5.4 | См. | 0
|
13 | user.max_user_namespaces=0 |
/etc/sysctl.conf |
2.5.5 | См. | 509894
|
14 | kernel.unprivileged_bpf_disabled=1 |
/etc/sysctl.conf |
2.5.6 | См. | 2
|
15 | vm.unprivileged_userfaultfd=0 |
/etc/sysctl.conf |
2.5.7 | См. | 1
|
16 | dev.tty.ldisc_autoload=0 |
/etc/sysctl.conf |
2.5.8 | См. | 1
|
17 | tsx=off |
/etc/default/grub |
2.5.9 | См. | Неактивно |
18 | vm.mmap_min_addr=4096 |
/etc/sysctl.conf |
2.5.10 | См. | 65536
|
19 | kernel.randomize_va_space=2 |
/etc/sysctl.conf |
2.5.11 | См. | 2
|
20 | kernel.yama.ptrace_scope=3 |
/etc/sysctl.conf |
2.6.1 | См. | 1
|
Защита памяти и ядра ОС
В чем опасность?
Опасность заключается в возможности получения доступа к данным, обрабатывающимся ядром. Данные, которые обрабатывает ядро носят критическую ценность для ОС и её пользователей. Если они неправомочно доступны, то с их помощью можно реализовать атаки любого вида. По умолчанию в Linux имеются возможности загрузки другого ядра (подмены), или использовании потенциально опасных модулей (драйверов) ядра, в том числе без перезагрузки. Это может привести к обходу механизмов защиты и любой другой опасной активности.
Что можно сделать для повышения безопасности?
Можно активизировать собственные механизмы защиты ядра ОС, направленные на противодействие атакам разного рода, такие как: защита памяти, защита от переполнения буфера, контроль целостности ядра и загружаемых драйверов, ограничить отладку и т. п. Информация о механизмах защиты ядра с пояснениями приведена далее.
Ядро является основным и наиболее критическим компонентом любого дистрибутива операционной системы Linux, в том числе и с точки зрения выполнения функций безопасности. Большинство их сосредоточено именно в ядре, либо так или иначе выполняется при посредничестве ядра ОС.
Ядро обрабатывает данные программ, управляет страницами памяти и взаимодействием между процессами, управляет файловыми системами, сетью, всей периферией, занимается разграничением доступа, генерирует первичные сообщения аудита, может контролировать целостность программ, управляет жизненным циклом каждого процесса, управляет вводом и выводом, и т. п. Следовательно, во время работы, в ядре обрабатывается или хранится множество важнейшей информации — ключи шифрования, пароли или хеши паролей (аутентификационная информация), защищаемые данные, а также принимаются решения о доступе.
Кроме того, поскольку ядро еще и отслеживает все другие компоненты ОС. Важно, чтобы выполнялось только то ядро, которое является доверенным. Иначе может произойти раскрытие информации, и данные пользователей, а также пароли или ключи шифрования, могут быть скомпрометированы. Кроме того, если не защищать ядро ОС, то нарушитель может попытаться изменить состав модулей (драйверов) ядра. Это может привести к самым непредсказуемым последствиям. Под угрозой окажутся любые обрабатываемые данные и функции безопасности. Так можно преодолеть защиту, отключив важную подсистему ядра ОС Linux, например механизм аудита, функции разграничения доступа (SELinux), выключить защиту памяти или фильтр пакетов. Любым возможностям несанкционированного взаимодействия с ядром необходимо препятствовать.
Подробная информация об известных техниках эксплуатации уязвимостей в ядре ОС Linux приведена по ссылке: https://github.com/xairy/linux-kernel-exploitation
Защита от просмотра адресов указателей
Переменная ядра ОС, отвечающая за доступ к интерфейсам ядра /proc/kallsyms
и /proc/modules
— это kernel.kptr_restrict
. Просматривая эти файлы, можно получать значения адресации памяти для указателей ядра. То есть можно, например, узнать, на какой адрес в памяти ссылается указатель той или иной программы, или загруженного модуля ядра. Переменная может принимать значения 0
, 1
и 2
. Более подробное описание рисков, связанных с атакой на адреса указателей и прототип эксплойта, демонстрирующий такую возможность, приведены по ссылке:
https://kernsec.org/wiki/index.php/Bug_Classes/Kernel_pointer_leak
Если для переменной kernel.kptr_restrict
определено значение 0
, то просматривать значения адресов в памяти может любой пользователь ОС. Если задано значение 1
, то просматривать адресацию функций может только root
. Если значение равно 2
, то никто не получит информацию об адресации. Рекомендуемое значение — два. При значении единица — отображение адресов заменяется на нули для всех пользователей, кроме root
. При значении два — отображение адресов заменяется на нули для всех пользователей, включая root
.
Для проверки текущего значения этой переменной выполнить:
# sysctl -a | grep kptr
kernel.kptr_restrict = 2
Если значение отличается, то выполнить установку этой переменной:
# sysctl -w kernel.kptr_restrict=2
# echo 'kernel.kptr_restrict = 2' >> /etc/sysctl.conf
Отключение трассировки процессов
На первом этапе нужно проверить, есть ли в выполняющемся ядре LSM модуль YAMA. Для этого можно выполнить поиск нужной опции в конфигурационном файле ядра, например:
$ cat /boot/config-5.10.118-generic-2rosa2021.1-x86_64 | grep YAMA
CONFIG_SECURITY_YAMA=y
Если есть, то в ОС может использоваться настройка, позволяющая производить ограничения на трассировку процессов. Если нет (выдано значение CONFIG_SECURITY_YAMA is not set
), то можно пропустить эту настройку.
Для проверки текущих значений трассировки выполнить (от имени администратора root
):
# sysctl -a | grep ptrace
kernel.yama.ptrace_scope = 2
Рекомендуется установить запрет трассировки, используя значение 2
для переменной kernel.yama.ptrace_scope
, или более строгое. Значение 2
определяет, что трассировку процессов может осуществлять только root
. Значение 3
полностью отключает трассировку, для всех пользователей, в том числе и для root
. В описанной ниже конфигурации трассировка разрешается только пользователю root
:
# sysctl -w kernel.yama.ptrace_scope=2
# echo 'kernel.yama.ptrace_scope = 2' >> /etc/sysctl.conf
А в конфигурационный файл загрузчика /etc/default/grub
дописать в параметры загрузки ядра директиву:
GRUB_CMDLINE_LINUX_DEFAULT="lsm=yama quiet splash"
После этого обновить конфигурацию загрузчика (# update-grub) и выполнить перезагрузку.
Ограничения на просмотр сообщений ядра
Команда dmesg
является очень популярной в ОС Linux. Она выводит на экран сообщения ядра ОС. По умолчанию эту команду может использовать любой пользователь в системе, следовательно её может применять злоумышленник, чтобы получить информацию о системе и некоторых её характеристиках. Соответственно, любой пользователь ОС сможет или напрямую обратиться к этому файлу ($ cat /dev/kmsg
), или использовать программы чтения кольцевого буфера аудита ядра, такие как dmesg
или rsyslog
. Рекомендуется ограничивать пользователей в возможности получать сообщения кольцевого буфера аудита ядра, чтобы снизить вероятность получения информации о работающей системе или ее параметрах.
Переменная ядра ОС kernel.dmesg_restrict
отвечает за доступ к интерфейсу кольцевого буфера аудита ядра (файлу /dev/kmsg
). По умолчанию доступ пользователей к этому интерфейсу не запрещен. Значение 1
предписывает, что обращаться к нему может только root
. Если установлено значение 0
, то доступ пользователей к буферу аудита ядра не ограничивается.
Проверить текущее значение политики доступа к интерфейсу кольцевого буфера аудита ядра можно так:
# sysctl -a | grep dmesg
kernel.dmesg_restrict = 1
Если при проверке значение отличается от единицы, то нужно выполнить настройку запрета чтения из этого интерфейса всем, кроме root
:
# sysctl -w kernel.dmesg_restrict=1
# echo 'kernel.dmesg_restrict = 1' >> /etc/sysctl.conf
Противодействие уязвимостям типа Meltdown и Spectre
Использование уязвимостей типа Meltdown или Spectre заключается в возможности несанкционированного выполнения кода в пространстве ядра. Например, возникающих при спекулятивном выполнении инструкций процессора (уязвимости типа Meltdown), и/или связанных с особенностями функционирования модуля прогнозирования ветвлений (уязвимости типа Spectre). Эти уязвимости были обнаружены в 2017 году, но все еще продолжают появляться различные их варианты.
Современные процессоры семейства x86 (производства компаний Intel и AMD) предоставляют возможность параллельного использования нескольких «нитей» или «потоков» на каждом процессорном ядре. Такая возможность называется SMT (Symmetric Multi-Threading, симметричная многопоточность). Поскольку «нити» или «потоки» (исходя из конструктивных особенностей ЦП) сохраняют возможности обмена информацией между собой, то это потенциально может привести к несанкционированному обмену информацией между процессами, выполняющимися в разных потоках, но на одном ядре ЦП. Либо может привести к нежелательному раскрытию информации в памяти и т. п. Поэтому в защищаемой системе опции процессора, отвечающие за SMT желательно отключить. При этом настоятельно рекомендуется использовать комплексный подход — отключать поддержку SMT как на уровне системы ввода-вывода, так и на уровне операционной системы. Данный подход обеспечивает бОльшую уверенность в том, что уязвимости, связанные с недостатками SMT не будут проэксплуатированы, например в том случае, если производитель оборудования предоставит ошибочное обновление системы ввода-вывода, повторно включающее SMT после отключения.
Уязвимости типа Meltdown и Spectre могут привести к реализации атак, при которых злоумышленник сможет получить доступ к защищенной памяти из программы, не обладающей соответствующими привилегиями (путём анализа данных, записываемых в кэш процессора).
Одним из наиболее эффективных способов противостояния атакам семейств Meltdown и Spectre является отключение SMT (помимо обновлений инструкций самих процессоров и разнообразных патчей к ядру Linux и компиляторам). Для этого ядро ОС Linux имеет нужные параметры, которые позволяют отключить SMT.
С другой стороны, минусом этого решения является снижение производительности. Отключение SMT (любым способом, программным или аппаратным), приведет к тому, что количество виртуальных процессорных ядер (vCPU) уменьшится кратно числу потоков в каждом ядре ЦП (то есть, не менее, чем вдвое). Наличие большого количества ядер vCPU особенно важно при необходимости использовать виртуальные машины.
Но если без SMT все же можно обойтись — то лучше отключить эту функциональность. Желательно планировать покупку оборудования с учетом того, что SMT будет отключаться.
Для проверки того, используется ли технология SMT, требуется от имени любого пользователя выполнить следующую команду:
$ cat /sys/devices/system/cpu/smt/active
0
Где 0
свидетельствует об отсутствии поддержки.
Иначе, если вывод 1
, то рекомендуется отключить поддержку SMT, сначала в BIOS/UEFI, если это поддерживается оборудованием. А затем выключить её и в ядре операционной системы.
Кроме того, полезно будет включить изоляцию таблиц страниц виртуальной памяти ядра (Page Table Isolation), которая серьезно снижает вероятность преодоления механизма изоляции процессов (ASLR). Для этого предназначена опция ядра pti=on
. Эта опция также существенно снижает вероятность эксплуатации Meltdown, и разных её вариантов, как уже известных, так и еще не продемонстрированных. Но, опять-таки, данная опция незначительно снижает производительность подсистемы управления памятью ядра.
Для отключения поддержки SMT в ОС и включения изоляции таблиц страниц виртуальной памяти ядра, требуется от имени root
выполнить изменение строки GRUB_CMDLINE_LINUX_DEFAULT
конфигурационного файла /etc/default/grub
, дописав в ее конец следующие директивы:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 mitigations=auto,nosmt pti=on'
После чего нужно обновить конфигурацию загрузчика (# update-grub
) и перезагрузить ОС.
Отключение технологии Intel TSX
Технология Intel TSX применялась в процессорах Intel до 8-го поколения. Эта технология была направлена на увеличение производительности вычислений, путем попыток предсказания и слияния данных в памяти процессора. Ядро ОС Linux по умолчанию поддерживает эту технологию. Однако эта технология небезопасная, устаревшая. Даже сама компания Intel её больше не использует, и не рекомендует. Поддержку TSX рекомендуется отключить, если ваш процессор Intel поколения 8 или ниже.
Для отключения поддержки TSX в ОС, требуется от имени root
выполнить изменение строки GRUB_CMDLINE_LINUX_DEFAULT
} конфигурационного файла /etc/default/grub
, дописав в ее конец следующую директиву:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 tsx=off'
После чего нужно обновить конфигурацию загрузчика (# update-grub
) и перезагрузить ОС.
Защита от переполнения буфера
Обычно в стеке памяти программы содержится критически важный для безопасности данных адрес, который может привести к выполнению произвольного кода. Им является сохраненный адрес возврата, то есть адрес памяти, по которому выполнение должно продолжиться после завершения выполнения некоей текущей функции. Злоумышленник может перезаписать это значение нужным ему адресом памяти, к которому у него также есть доступ на запись, и в который он помещает свой код. Этот код будет запускаться с полными привилегиями уязвимой программы. Например, он может подставить адрес нужного ему вызова, скажем, POSIX system(2)
, оставив аргументы вызова в стеке. Это часто называют эксплойтом возврата в libc, поскольку злоумышленник обычно заставляет программу во время возврата перейти к интересующей его процедуре в стандартной библиотеке C libc). Другие важные данные, обычно находящиеся в стеке, включают указатели стека и кадра — два значения, которые указывают смещения для вычисления адресов памяти. Изменение этих значений также может использовать злоумышленник для организации деструктивных воздействий на программу. Чтобы этому противостоять рекомендуется использовать все доступные способы защиты от переполнения буфера.
Защиту от переполнения буфера важно использовать как на уровне «железа», так и на уровне операционной системы. Это важно потому, что исполняемые файлы в системе, могут быть скомпилированы без использования техник защиты от переполнения буфера (например, опции компилятора GCC типа fstack-protector
не задействовались). Либо некоторые процессоры (особенно старые или дешёвые) могут не иметь соответствующих аппаратных возможностей.
Аппаратная защита от переполнения буфера и ее проверка
Современные процессоры семейства x86 (производства компаний Intel и AMD) предоставляют возможность запрета выполнения кода в некоторых страницах памяти. У процессоров такая возможность активизируется включением специального бита, который у AMD называется No Execute Bit (NX bit), а у Intel — Execute Disable Bit (XD bit). Включение таких битов процессора — это способ минимизации негативных последствий, вызванных переполнением буфера.
Для проверки того, задействованы ли в BIOS или UEFI функции аппаратной защиты от переполнения буфера, требуется выполнить:
# journalctl | grep "protection: active"
kernel: NX (Execute Disable) protection: active
В том случае, если вывод отличается от приведенного выше, то требуется включить соответствующие опции в BIOS/UEFI (если такая возможность предоставлена изготовителем оборудования) и перепроверить.
Программная защита от переполнения буфера («канарейка»)
Техника программной защиты от переполнения буфера на жаргоне программистов называется «канарейка» (canary). Такое название употребляется по аналогии с канарейками, которые использовались шахтерами в угольных шахтах до появления газоанализаторов. Задача «канарейки» -- умереть прежде шахтера. То есть, в данном случае -- прервать выполнение программы до того, как будет осуществлено какое-то деструктивное воздействие. Для этого небольшое целое число (значение которого случайно выбирается при запуске программы) записывается в память непосредственно перед указателем возврата адреса в стеке, и все дальнейшие обращения к нему отслеживаются.
Это хорошо автоматизируемая техника, и она может быть выполнена не программистом, а прямо компилятором во время сборки исходного кода. Естественно, такая концепция защиты немного влияет на производительность программы. Но влияние это не слишком значительное, и лучше немного пренебречь производительностью во имя защиты. Однако эта защита пока никак не настраивается прямо в операционной системе. Она, как уже было сказано, осуществляется на этапе сборки прямо в сборочной среде с помощью специальных опций компилятора GCC типа fstack-protector
.
Проиллюстрировать поведение этой опции можно на следующем примере. Можно подготовить простую программу на языке Си, откомпилировать с нужной опцией fstack-protector
и запустить. Так можно убедиться в том, что при сборке программы с такой опцией отслеживается переполнение стека (вследствие контроля к областям оперативной памяти системным вызовом mprotect(2)
) и выполнение программы прерывается.
Пример такой проверочной программы на языке Си указан ниже:
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
struct no_chars {
unsigned int len;
unsigned int data;
};
int main(int argc, char * argv[])
{
struct no_chars info = { };
if (argc < 3) {
fprintf(stderr, "Usage: %s LENGTH DATA...\n", argv[0]);
return 1;
}
info.len = atoi(argv[1]);
memcpy(&info.data, argv[2], info.len);
return 0;
}
Если эту программу сохранить под именем, например, program1.c
, затем откомпилировать с опцией защиты от переполнения буфера и запустить, то можно убедиться в том, что в результате срабатывания защиты, программа прерывается:
$ gcc -O0 -fstack-protector-strong -o ./program1 ./program1.c
$ ./program1 64 AAA
*** stack smashing detected ***: terminated
Aborted
$ echo $?
134
Как видно, программа получила шестой сигнал (128 + 6 = 134) SIGABRT
. Для получения списка сигналов можно выполнить $ kill -l
или прочесть справку signal(7)
.
Кроме того, можно откомпилировать программу и без опции защиты от переполнения буфера и повторно проверить, что будет. Для проверки опций (в том числе опций защиты от переполнения буфера), с которыми была собрана та или иная программа, существует несколько способов.
Например, можно посмотреть опции сборки, указанные в метаданных RPM пакета с программой. Допустим, требуется проверить опции сборки для программы /bin/ls
. Для этого нужно сделать запрос к менеджеру пакетов rpm
, например:
# rpm -q --queryformat="%{NAME}: %{OPTFLAGS}\n" binutils
В ответ система сообщит опции сборки, например для пакета binutils
(куда входит программа /bin/ls
):
binutils: -O2 -fomit-frame-pointer -gdwarf-4 -Wstrict-aliasing=2 -pipe -Wformat
-Werror=format-security -D_FORTIFY_SOURCE=2 -fPIC -fstack-protector-strong
--param=ssp-buffer-size=4 -m64 -mtune=generic -fstack-protector-strong
Как видно из вывода запроса rpm
, он содержит нужную для защиты от переполнения буфера опцию -fstack-protector-strong
. Некоторым неудобством этого подхода является то, что нужно знать или уметь выяснять, к какому именно пакету относится та, или иная программа. А если нужно проверить несколько программ в одном каталоге, но которые могут принадлежать разным пакетам, задача проверки может стать совсем мучительной без познаний в программировании на языке оболочки.
Кроме этого способа существует анализатор опций сборки, который представлен в виде сценария checksec
, доступный по ссылке: https://github.com/slimm609/checksec.sh
Этот сценарий проверяет содержимое бинарных файлов и библиотек в соответствующих метаданных ELF формата, и выводит опции сборки. Например, можно посмотреть на его вывод для проверки того же бинарного файла /bin/ls
:
$ checksec --output=csv --file=/bin/ls
Partial RELRO,Canary found,NX enabled,PIE enabled,No RPATH,No RUNPATH,No Symbols,Yes,5,17,/bin/ls
Как видно из вывода, для программы найдено применение техники защиты от переполнения буфера, т.н. «канарейка»: Canary found
.
Есть мнение, что применение этого сценария значительно удобнее, чем получение данных из RPM пакета, так как и результат нагляднее, и проверять можно сразу все файлы в каталоге, и выводить результаты можно еще и в форматах CSV или XML. В любом случае, каждый сам для себя может решить, какой способ проверки защиты от переполнения буфера удобнее использовать.
Естественно, что и само ядро ОС тоже компилируется с опциями защиты от переполнения буфера.
Защита от выполнения произвольного кода в ядре
Современное ядро Linux содержит фильтр eBPF, который когда то был перенесен из ОС семейства BSD, где выполнял функции фильтра пакетов. А сейчас фильтр eBPF в Linux является механизмом ядра, предоставляющим возможности трассировки и профилирования как самого ядра, так и пользовательских приложений.
Фильтр eBPF имеет встроенный JIT компилятор, и уже давно не является простым фильтром пакетов. Теперь это очень мощная структура в ядре Linux, которая позволяет из непривилегированного пользовательского пространства выполнять произвольный код в ядре, чтобы динамически расширять функциональность ядра. Имеющийся в eBPF JIT компилятор по существу является нарушением принципа «W xor X», поскольку ядро не проверяет код, выполняемый JIT компилятором eBPF.
Несмотря на широчайшие функциональные возможности eBPF, его основным минусом с точки зрения безопасности является то, что этот механизм фактически работает как «песочница» или «виртуальная машина» в пространстве ядра, позволяющая исполнять произвольный код внутри ядра, используя для этого интерфейс из пользовательского пространства. И этот исполняемый код еще и не проверяется на соответствие принципу «W xor X».
Реализация eBPF в ядре Linux пока далека от идеальной. Только за три года (с 2020 по 2022 гг) было зафиксировано более десятка уязвимостей в механизме eBPF, большинство из которых имело высокий рейтинг:
Иногда в сети попадаются эксплойты, демонстрирующие возможности эксплуатации недостатков в eBPF:
https://haxx.in/files/blasty-vs-ebpf.c
Исходя из того, что указано выше, использовать eBPF в защищенной системе не рекомендуется. Ограничить использование eBPF довольно просто. Для проверки того, отключены ли механизмы eBPF, и его JIT компилятор, выполнить:
# sysctl -a | grep unprivileged_bpf_disabled
kernel.unprivileged_bpf_disabled = 1
# sysctl -a | grep net.core.bpf_jit_harden
net.core.bpf_jit_harden = 2
Переменная kernel.unprivileged_bpf_disabled
принимает значения 0
и 1
. Значение 0
разрешает любым пользователям взаимодействие с eBPF. Значение 1
запрещает пользователям (кроме root
) взаимодействовать с eBPF.
Переменная net.core.bpf_jit_harden
принимает значения 0
, 1
и 2
. Значение 0
не активизирует защиту JIT компилятора eBPF. Значение 1
не позволяет пользователям (кроме root
) использовать JIT компилятор. Значение 2
не разрешает никому, включая root
, использовать JIT компилятор eBPF. Рекомендуется для переменной net.core.bpf_jit_harden
устанавливать значение 2
.
Такие настройки призваны полностью противодействовать атакам типа JIT spraying для eBPF. Подробнее о семействе атак JIT spraying можно узнать по ссылкам:
http://www.ruscrypto.org/resource/archive/rc2010/files/10_sintsov.pdf
https://www.youtube.com/watch?v=LVGw6JFPjhc
http://www.semantiscope.com/research/BHDC2010/BHDC-2010-Paper.pdf
Для установки рекомендуемых значений защиты eBPF выполнить:
# sysctl -w 'kernel.unprivileged_bpf_disabled=1'
kernel.unprivileged_bpf_disabled = 1
# echo 'kernel.unprivileged_bpf_disabled = 1' >> /etc/sysctl.conf
# sysctl -w 'net.core.bpf_jit_harden=2'
net.core.bpf_jit_harden = 2
# echo 'net.core.bpf_jit_harden = 2' >> /etc/sysctl.conf
Ограничение дисциплины линии
Исторически ядро Linux автоматически загружает любой подходящий драйвер подключаемой к системе дисциплины линии (https://en.wikipedia.org/wiki/Line_discipline). Например, если к серверу в COM-порт подключить COM терминал, то его драйвер будет загружен при подключении. Такое поведение не может гарантировать безопасность. Более того, ранее уже отмечались уязвимости в драйверах дисциплины линии:
https://a13xp0p0v.github.io/2017/03/24/CVE-2017-2636.html
Рекомендуется ограничить автоматические возможности ядра по подключению драйверов дисциплины линии там, где это не требуется. Для установки ограничения используется специальная переменная ядра dev.tty.ldisc_autoload
. Эта переменная может принимать значения 0
и 1
. Значение 1
воспрещает автоматическую загрузку драйвера дисциплины линии. Значение 1
(по умолчанию) -- наоборот, разрешает.
Для проверки текущего значения этой переменной нужно выполнить:
# sysctl -a | grep ldisc
dev.tty.ldisc_autoload = 0
Если значение не равно нулю, то установить переменную в безопасное значение:
# sysctl -w 'dev.tty.ldisc_autoload=0'
# echo 'dev.tty.ldisc_autoload = 0' >> /etc/sysctl.conf
Защита алгоритма оптимизации памяти
Алгоритм оптимизации памяти (т.н. «slab allocator») в ядре ОС базируется на принципе дефрагментации участков памяти в ядре (кэш страниц, данные, представленные древовидными структурами -- «куча» (heap)), и направлен на повышение эффективности использования памяти (снижение задержек при работе с данными, и т.п.). Основным методом оптимизации является слияние кэшей или повторное использование одних и тех же данных для однотипных объектов. Ранее уже фиксировались уязвимости в этом механизме, использующие указанные особенности алгоритма оптимизации памяти:
https://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2021-42008
https://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2022-0185
И даже были подготовлены эксплойты, демонстрирующие атаку на этот алгоритм, см. например:
https://syst3mfailure.io/sixpack-slab-out-of-bounds
https://www.openwall.com/lists/oss-security/2022/01/25/14
Рекомендуется противодействовать возможной активности нарушителя, направленной на организацию атак алгоритма оптимизации памяти в ядре ОС. Для этого предлагается использовать опцию загрузки ядра slab_nomerge
, которая сообщает ядру о том, что слияние кэшей выполнять не нужно, и, таким образом, предотвращается возможность повторного получения данных.
Для отключения слияния кэшей нужно внести изменение в файл /etc/default/grub
, добавив в строку параметров загрузки ядра следующее:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 slab_nomerge'
После чего обновить конфигурацию загрузчика (# update-grub
) и перезагрузить ОС.
Принудительная очистка страниц виртуальной памяти и рандомизация их выделения
Ядро ОС Linux имеет возможность осуществлять очистку памяти. Причем можно указать, в какое время она выполняется -- либо перед выделением страницы она будет очищена, либо будет очищена после освобождения, но возможно задать и оба этих варианта.
Это значительно усложняет возможности эксплуатации уязвимостей, основанных на раскрытии информации из страниц памяти, при повторном использовании информации из распределяемых или высвобождаемых страниц, поскольку содержимое этих информационных ресурсов будет обнулено. Подробнее о механизмах очистки памяти, и о потенциально возможных техниках эксплуатации уязвимостей, основанных на доступе к страницам памяти, можно прочесть по ссылке:
Для включения очистки страниц памяти при распределении страниц -- нужно внести изменение в файл /etc/default/grub
, добавив в строку параметров загрузки ядра следующее:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 init_on_alloc=1'
Для включения очистки страниц памяти при высвобождении страниц -- нужно внести такое изменение в файл /etc/default/grub
, добавив в строку параметров загрузки ядра следующее:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 init_on_free=1'
Для включения очистки страниц памяти при распределении и при высвобождении страниц -- нужно внести оба значения в файл /etc/default/grub
, добавив в строку параметров загрузки ядра следующее:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 init_on_alloc=1 init_on_free=1'
Нужно понимать, что поскольку ядро ОС при указанных выше настройках будет обязано производить дополнительные операции по принудительной очистке страниц памяти, все операции со страницами виртуальной памяти будут выполняться дольше. Следовательно, это деградирует производительность при любой обработке данных в операционной системе в целом.
Однако, возможен и обратный эффект, при котором усиливается и безопасность, и немного вырастет производительность. Рекомендуется активизировать рандомизацию распределения страниц кэш-памяти, при которой, с одной стороны -- будет улучшено среднее использование страниц кэш-памяти с прямым отображением. А с другой стороны -- это усложнит возможности провести атаку на страницы кэш-памяти, так как их адресация будет менее предсказуемой.
Подробнее о рандомизации распределения страниц кэш-памяти можно прочесть по ссылке:
Для включения динамической рандомизации распределения страниц кэш-памяти, нужно внести следующие изменения в файл /etc/default/grub
, добавив в строку параметров загрузки ядра:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 page_alloc.shuffle=1'
Кроме того, можно обязать ядро опционально рандомизировать стек своей памяти, чтобы выполнялось смещение стека при выполнении каждого системного вызова. Ранее уже отмечались атаки на стек ядра, связанные с возможностью совершения атак, предполагающих детерминированную компоновку стека ядра. Атаки такого рода (использующие детерминированную компоновку стека ядра Linux) уже фиксировались ранее. Подробнее о них можно прочесть по ссылке:
https://a13xp0p0v.github.io/2020/02/15/CVE-2019-18683.html
Следовательно, желательно противодействовать возможностям нарушителя эксплуатировать этот вектор. Для такого противодействия можно использовать опцию загрузки ядра randomize_kstack_offset=on
. Которая при выполнении каждого системного вызова будет выполнять смещение стека на случайную величину. Рекомендуется внести следующие изменения в файл /etc/default/grub
, добавив в строку параметров загрузки ядра:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 randomize_kstack_offset=on'
Минусом этого решения будет незначительное увеличение накладных расходов при работе с памятью. То есть производительность системы незначительно снизится (на несколько процентов, на грани статистической погрешности).
В ОС есть и другие эффективные способы противодействовать атакам на механизмы памяти ядра. Информация о них приведена в разделе, описывающем защиту от уязвимостей типа Meltdown и Spectre.
Защита прямого доступа к памяти (DMA)
В том случае, если нарушитель получит физический доступ к аппаратуре, на которой функционирует ОС, то существует опасность внедрения устройства, использующего наличие высокоскоростных портов расширения, которые разрешают прямой доступ к памяти (DMA). К устройствам, требующим прямой доступ к памяти (DMA), например, можно отнести устройства Fire-Wire (IEEE 1394), Thunderbolt, USB 4.0 и др. Ограничивать применение интерфейсов FireWire и Thunderbolt настоятельно рекомендуется, если нет необходимости их использовать. Используя специально подготовленное устройство DMA нарушитель может получить прямой доступ к памяти ОС. Атаки DMA являются довольно популярными (https://en.wikipedia.org/wiki/DMA_attack). Для противодействия такого рода атакам, рекомендуется задействовать механизмы IOMMU. В этом случае решение о предоставлении доступа к памяти возьмет на себя аппаратный контроллер процессора, который не предоставляет сразу всю память устройствам, работающим под управлением ОС или процессам в пользовательском пространстве ОС.
Для активизации IOMMU выполнить редактирование файла /etc/default/grub
, и указать в строке загрузки ядра следующие опции:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 iommu=force iommu.strict=1 iommu.passthrough=0'
Механизмы IOMMU напрямую зависят от используемого процессора, поэтому подробнее от опциях IOMMU можно прочесть по ссылке:
https://docs.kernel.org/x86/iommu.html
Отключение vsyscall
В составе ядра ОС для обратной совместимости сохраняется устаревший механизм обработки и ускорения выполнения для некоторых системных вызовов -- vsyscall
. В современных условиях этот механизм позднее был заменен на механизм vDSO (https://en.wikipedia.org/wiki/VDSO).
Поскольку механизм vsyscall
размещал данные в памяти по фиксированным адресам, то это делало его уязвимым к осуществлению типовых атак "ROP" (т.н. атаки возвра́тно-ориенти́рованного программи́рования https://en.wikipedia.org/wiki/Return-oriented_programming).
Рекомендуется отключить этот механизм ядра ОС. Для этого в файле конфигурации загрузчика /etc/default/grub
в строке параметров загрузки ядра нужно задать:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 vsyscall=none'
Настройка изоляции процессов (ASLR)
В страницах памяти виртуального адресного пространства, выделяемых процессам, содержится информация, необходимая им для выполнения и обработки. Поэтому в страницах памяти могут храниться ключи шифрования, защищаемые данные, хеши паролей пользователей, идентификаторы пользователей и файлов, содержимое файлов и т.п.
Злоумышленник может получить доступ к данным, хранящимся в страницах памяти, если механизм изоляции процессов настроен неправильно. Поэтому требуется обеспечить невозможность или существенно затруднить злоумышленнику доступ к чужому или предыдущему содержанию страниц памяти. Для этого в составе ядра содержится функция поддержки случайного выделения страниц памяти. Правильная настройка ASLR (Address-space layout randomization) обеспечивает изоляцию адресного пространства страниц виртуальной памяти для процессов.
Применение ASLR (совместно с другими техниками очистки страниц памяти, которые описаны выше) существенным образом затрудняет для злоумышленника возможность эксплуатации уязвимостей, связанных с повторным получением доступа к страницам памяти, или с несанкционированного воздействием на память соседних процессов.
Для настройки ASLR используется переменная ядра kernel.randomize_va_space
. Эта переменная ядра может принимать разные значения:
- Значение
0
, определяет, что случайного выделения адресного пространства не происходит, и распределение страниц памяти происходит статично; - Значение
1
определяет консервативную рандомизацию. Однако, данные адресации общих библиотек, стека,mmap(2)
, vDSO и кучи(heap) рандомизированы; - Значение
2
определяет полную рандомизацию. В дополнение к элементам, перечисленным ранее, управляемая памятьbrk(2)
также рандомизирована.
Рекомендуется использовать полную рандомизацию адресного пространства, следовательно, значение переменной kernel.randomize_va_space
должно быть установлено в 2
.
Для проверки текущего значения переменной ядра функции изоляции процессов необходимо выполнить следующую команду:
# sysctl -a | grep kernel.randomize_va_space
kernel.randomize_va_space = 2
В ответ система должна сообщить текущее значение параметра ядра в отношении изоляции процессов. В том случае, если выведенное на экран значение изоляции отлично от 2
, требуется произвести настройку ASLR. Для активизации поддержки функции изоляции процессов ASLR и ее настройки на максимальную рандомизацию, нужно выполнить:
# echo 'kernel.randomize_va_space = 2' >> /etc/sysctl.conf
# sysctl -w kernel.randomize_va_space=2
Увеличить энтропию рандомизации можно с помощью переменных ядра ОС vm.mmap_rnd_bits=32
и vm.mmap_rnd_compat_bits=16
. По умолчанию в ОС используется значение vm.mmap_rnd_compat_bits=8
. Указанные значения являются зависимыми от архитектуры используемого процессора, но в общем случае хорошо подходят для архитектуры x86. Данные параметры можно внести в конфигурационный файл /etc/sysctl.conf
:
# echo 'vm.mmap_rnd_bits = 32' >> /etc/sysctl.conf
# sysctl -w vm.mmap_rnd_bits=32
# echo 'vm.mmap_rnd_compat_bits = 16' >> /etc/sysctl.conf
# sysctl -w vm.mmap_rnd_compat_bits=16
Для противодействия атакам, связанным с разыменовыванием нулевого указателя рекомендуется использовать переменную ядра vm.mmap_min_addr
. Аргументом эта переменная принимает адрес в виртуальной памяти, который процессу будет разрешен при выполнении системного вызова mmap(2)
. Значение должно быть не меньше, чем 4096
. В ОС она по умолчанию уже установлена в безопасное значение, и обычно не требуется её дополнительная настройка. Однако для большей уверенности все же рекомендуется проверить её текущее состояние:
# sysctl -a | grep vm.mmap_min_addr
vm.mmap_min_addr = 65536
Иначе, если значение отличается от 4096
в меньшую сторону, то можно установить безопасное значение для этой переменной:
# sysctl -w vm.mmap_min_addr=4096
# echo 'vm.mmap_min_addr = 4096' >> /etc/sysctl.conf
Настройка пользовательских пространств имен
Пользовательские пространства имен user_namespaces(7)
-- механизм ядра ОС Linux, предназначенный для изолированных пространств, и обычно применяющийся в интересах изоляции контейнеров, но не только. Использование этого механизма доступно обычным пользователям в основном для запуска т.н. rootless containers. То есть для запуска контейнеров, в которых пользователи внутри контейнера не имеют прямого сопоставления к системным пользователям ОС, в которой контейнер запущен.
Проблема разрешения применения user_namespaces(7)
для обычных пользователей с точки зрения безопасности состоит в том, что такое разрешение открывает доступ для пользователей к коду ядра и функциям, которые в обычном случае (без этого разрешения) доступны только пользователю root
. Например, разрешая user_namespaces(7)
, пользователи получают доступ к подсистеме ядра, отвечающей за обработку протокола L2TP, и, как следствие, смогут создавать свои туннели. Кроме того, это же разрешение открывает пользователям доступ к управлению программным коммутатором OpenVSwitch, в случае его использования, управлению беспроводными сетями (NL80211), к монтированию ФС, и т.п. То есть применение этого механизма серьезно увеличивает площадь атаки на ядро ОС.
Более подробно информацию можно изучить по ссылкам:
https://grsecurity.net/10_years_of_linux_security.pdf
https://lwn.net/Articles/652468/
Более того, реализация этого механизма в ОС Linux пока еще далека от идеальной. Например, только с 2020 года, и по настоящее время в механизме user_namespaces(7)
сообщалось не менее чем о десятке опасных уязвимостей, к некоторым из которых были подготовлены эксплойты. См. например:
https://packetstormsecurity.com/files/165151/Ubuntu-Overlayfs-Local-Privilege-Escalation.html.
Поэтому рекомендуется отключить user_namespaces(7)
если rootless контейнеры применять не планируется.
Большой список известных уязвимостей в этом механизме приведен по ссылке:
Нужно понимать, что механизм user_namespaces(7)
также используется и при выполнении приложений, использующих WebKit (WebKit GTK). И такие приложения как браузеры Google Chrome, Chromium, Konqueror или почтовый клиент Gnome Evolution могут испытывать проблемы с запуском и производительностью, или не запускаться вовсе. Если использовать эти приложения необходимо, рекомендуется взвешено оценивать риски и принимать решения о запрете или разрешении использования user_namespaces(7)
.
Для отключения user_namespaces(7)
используются соответствующие переменные ядра ОС -- user.max_user_namespaces
и kernel.unprivileged_userns_clone
, которые определяют возможность создания пользовательских пространств имен.
Для проверки текущего значения этой переменной нужно выполнить:
# sysctl -a | grep user.max_user_namespaces
user.max_user_namespaces = 0
# sysctl -a | grep userns_clone
kernel.unprivileged_userns_clone = 0
Если значение не равно нулю, то для отключения пользовательских пространств имен можно установить переменные:
# sysctl -w user.max_user_namespaces=0
# echo 'user.max_user_namespaces = 0' >> /etc/sysctl.conf
# sysctl -w kernel.unprivileged_userns_clone=0
# echo 'kernel.unprivileged_userns_clone = 0' >> /etc/sysctl.conf
Технология защиты ядра Lockdown
В ядре Linux начиная с версии 5.4 появилась поддержка специальной технологии защиты ядра под названием Lockdown. Эта технология нужна для ограничения воздействия на выполняющееся ядро даже со стороны root
. Логика здесь в том, что если злоумышленник все же добился прав root
, то нужно препятствовать его попыткам загрузить другое ядро или прочесть важные данные из памяти ядра (например, ключи шифрования и т.п.).
Однако стоить помнить, что в таком случае (тут имеется ввиду режим максимальной защиты confidentiality
) невозможен переход в сон (режим гибернации), а это может быть важно при работе на ноутбуке. А также ограничивается доступ для root
к довольно большому количеству интерфейсов ядра:
-
/dev/mem
(/dev/kmem
); -
/dev/port
; -
/proc/kcore
; - Служебной ФС ядра
debugfs
; - Отладочным режимам для
kprobes
,mmiotrace
,tracefs
иeBPF
; - Блокируется доступ к некоторым интерфейсам ACPI и MSR-регистрам процессора;
- Блокируется использование системных вызовов
kexec_file(2)
иkexec_load(2)
; - Не допускаются манипуляции с портами ввода/вывода, в том числе изменение номера прерывания и порта ввода/вывода для последовательного порта, а также блокируются некоторые другие интерфейсы ядра, используемые реже. И для разработки такой режим тоже не годится.
Поскольку в ОС ROSA Fresh 12 используется ядро версии не ниже 5.10, то защиту ядра Lockdown можно активизировать. По умолчанию она выключена (если установить систему с поддержкой UEFI Secure Boot, то Lockdown будет автоматически активизирован в режиме integrity
). У технологии Lockdown два возможных режима работы. Менее строгий, и более строгий.
Первый режим называется integrity
, и препятствует воздействию на работающее ядро как со стороны пользовательского пространства, так и со стороны root
. Проще говоря, нельзя будет выполнить загрузку другого ядра с помощью kexec_load
, kexec_file_load
(указанные программы входят в состав пакета kexec-tools
). Нельзя будет сбросить дамп ядра с помощью kdump
. Однако интерфейсы отладки ядра и возможности со стороны root
получать данные из текущего выполняющегося ядра в этом режиме сохраняются.
Второй вариант, более строгий, называется confidentiality
. Помимо того, что нельзя манипулировать с работающим ядром, все отладочные и некоторые другие интерфейсы ядра блокируются даже для root
, как было описано выше.
Проверить, возможно ли включение технологии Lockdown на текущем ядре, можно просмотрев конфигурационный файл загруженного ядра, например:
# cat /boot/config-5.10.118-generic-2rosa2021.1-x86_64 | grep LOCKDOWN
CONFIG_SECURITY_LOCKDOWN_LSM=y
Если поддержки в ядре нет, то в ответ возвращается:
CONFIG_SECURITY_LOCKDOWN_LSM is not set
В последнем случае, это означает, что включить эту технологию не получится без изменения ядра.
Если ядро поддерживает включение Lockdown, то нужно загрузить ядро с соответствующими опциями. Для этого в файле /etc/default/grub
в строке параметров загрузки ядра нужно задать:
GRUB_CMDLINE_LINUX_DEFAULT="quiet splash lockdown=confidentiality lsm=lockdown"
После этого обновить конфигурацию загрузчика (# update-grub) и выполнить перезагрузку
Для проверки текущего состояния Lockdown и режима его работы, после перезагрузки можно выполнить запрос к соответствующим структурам данных ядра, например:
# cat /sys/kernel/security/lockdown
none integrity [confidentiality]
Как видно по результатам запроса, режим ядра Lockdown в примере включен в самом строгом режиме [confidentiality]
. Текущий режим его работы указывается в квадратных скобках.
Дополнительно, можно убедиться в том, что даже пользователь root
утратил возможность получать данные из некоторых интерфейсов ядра, например:
# id
uid=0(root) gid=0(root) группы=0(root)
# cat /dev/mem
cat: /dev/mem: Операция не позволена
# cat /dev/port
cat: /dev/port: Операция не позволена
# cat /proc/kcore
cat: /proc/kcore: Операция не позволена
Ограничения для процессов при обработке ошибок
В случае по умолчанию ядро ОС может делегировать пользовательским процессам обработку различных ошибок в страницах памяти, что в противном случае мог бы сделать только код ядра, выполняющийся в изолированной области. Поведение ядра по умолчанию делает возможным атаки на «кучу» (heap). Подробная информация о таких атаках и концепция эксплойта приведена по ссылке:
https://duasynt.com/blog/linux-kernel-heap-spray
В данном случае, речь идет о типовых атаках типа «use-after-free» (использование после высвобождения). При этом эксплуатируются возможности системного вызова userfaultfd(2)
. Требуется учитывать, что системный вызов userfaultfd(2)
используется гипервизором KVM для реализации динамической миграции с последующим копированием. Динамическая миграция с посткопированием — это одна из форм расширения памяти, состоящая в том, что виртуальная машина работает с частью или всей памятью, расположенной на другом узле в облаке. Если используется виртуализация на нескольких узлах вместе с NUMA, то ограничение использования этого системного вызова приведет к невозможности миграции виртуальных машин. Этот системный вызов приводит к тому, что в случае краха или ошибки приложения может быть создан файл (и даже от имени непривилегированного пользователя), в который попадает содержимое страниц памяти.
Рекомендуется противодействовать получению информации с помощью userfaultfd(2)
. Для этого нужно переключить переменную ядра ОС vm.unprivileged_userfaultfd
в значение 0
.
Для проверки текущего значения этой переменной нужно выполнить:
# sysctl -a | grep userfaultfd
vm.unprivileged_userfaultfd = 0
Если значение не равно нулю, то установить переменную в безопасное значение:
# sysctl -w vm.unprivileged_userfaultfd=0
# echo 'vm.unprivileged_userfaultfd = 0' >> /etc/sysctl.conf
Отключение служебной ФС ядра debugfs
Служебная файловая система ядра debugfs
предназначена для упрощения отладки и монтируется по умолчанию в оперативную память при загрузке ядра. Поскольку к ней предоставляются право на чтение, нарушитель может использовать данные, предоставляемые debugfs
для изучения системы. Также эта файловая система предоставляет функции, способствующие отладке приложений. Подробнее информацию о debugfs
можно получить по ссылке:
https://lkml.org/lkml/2020/7/16/122
При активизации режима Lockdown (См. Lockdown) доступ к служебной файловой системе ядра debugfs
также ограничивается. При включении режима Lockdown доступ в нее предоставляется в режиме только на чтение и исключительно для пользователя root
. Опция загрузки ядра debugfs=off
полностью отключает эту ФС.
Рекомендуется препятствовать возможности получить отладочную информации приложений, и не допускать раскрытия информации о системе. Как уже упоминалось выше, опция debugfs=off
полностью отключает эту ФС. Опция debugfs=no-mount
обеспечивает чтение данных из программного интерфейса отладки и аварийного ядра. Для отключения debugfs
нужно внести в файл конфигурации загрузчика /etc/default/grub
, указанное ниже изменение, добавив в строку параметров загрузки ядра следующее:
GRUB_CMDLINE_LINUX_DEFAULT='splash smem=1 debugfs=off'
После чего обновить конфигурацию загрузчика (# update-grub
) и перезагрузить ОС.
Монитор событий производительности ядра и его защита
Внимание, описанная ниже конфигурация неприменима для ОС ROSA Fresh 12.
В ядре Linux есть механизм мониторинга событий производительности. Он выполняется в интересах приложений, помогая при отладке и профилировании. Механизм позволяет приложениям запрашивать и получать информацию из ядра и сведения об использованных приложениями ресурсах. Однако, эти сведения могут быть использованы и нарушителем для получения информации о системе. Кроме того, в реализации этого механизма уже фиксировались уязвимости. Подробнее о выявленных уязвимостях в мониторе производительности ядра см. например:
Но можно настроить режим монитора производительности ядра таким образом, чтобы он позволял получать статистику только от имени пользователя root
. Для этого предусмотрена специальная переменная ядра kernel.perf_event_paranoid
. Она может принимать разные значения, которые определены в файле исходных текстов ядра Linux https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/kernel/events/core.c kernel/events/core.c]:
-
-1
-- нет ограничений для получения информации;
-
0
запрещает доступ к необработанным точкам трассировки для непривилегированных процессов;
-
1
запрещает доступ к получению статистики ЦП для непривилегированных процессов;
-
2
запрещает профилирование ядра для непривилегированных процессов;
- значение
3
доступно только если применен специальный патч к ядру. Например, в ядре ОС ROSA Fresh 12 такого патча нет. Однако там, где он есть, получение любой статистики будет возможно только пользователюroot
, или пользователю (процессу) с установленными CAPABILITY (возможностями)CAP_PERFMON
,CAP_SYS_PTRACE
илиCAP_SYS_ADMIN
. Подробнее см.capabilities(7)
.
Там, где такой патч применен, а переменная kernel.perf_event_paranoid
установлена в значение 3
-- можно проверить поведение системы и убедиться, что только пользователь root
способен получать статистику производительности:
# id
uid=0(root) gid=0(root) группы=0(root)
# perf stat -x, -v -e branch-misses,cpu-cycles,cache-misses sleep 1
Using CPUID GenuineIntel-6-8E-C
Control descriptor is not initialized
branch-misses: 7777 1085968 1085968
cpu-cycles: 1436844 1085968 1085968
cache-misses: 42722 1085968 1085968
7777,,branch-misses,1085968,100,00,,
1436844,,cpu-cycles,1085968,100,00,,
42722,,cache-misses,1085968,100,00,,
Для пользователя вывод будет выглядеть так:
# id
uid=1000(user) gid=1000(user) группы=1000(user),100(users)
# perf stat -x, -v -e branch-misses,cpu-cycles,cache-misses sleep 1
Using CPUID GenuineIntel-6-8E-C
Control descriptor is not initialized
Warning:
kernel.perf_event_paranoid=3, trying to fall back to excluding kernel and hypervisor samples
Error:
Access to performance monitoring and observability operations is limited.
Consider adjusting /proc/sys/kernel/perf_event_paranoid setting to open
access to performance monitoring and observability operations for processes
without CAP_PERFMON, CAP_SYS_PTRACE or CAP_SYS_ADMIN Linux capability.
More information can be found at 'Perf events and tool security' document:
https://www.kernel.org/doc/html/latest/admin-guide/perf-security.html
perf_event_paranoid setting is 3:
-1: Allow use of (almost) all events by all users
Ignore mlock limit after perf_event_mlock_kb without CAP_IPC_LOCK
>= 0: Disallow raw and ftrace function tracepoint access
>= 1: Disallow CPU event access
>= 2: Disallow kernel profiling
To make the adjusted perf_event_paranoid setting permanent preserve it
in /etc/sysctl.conf (e.g. kernel.perf_event_paranoid = <setting>)
Для того, чтобы проверить текущее значение переменной kernel.perf_event_paranoid
,
выполнить:
# cat /proc/sys/kernel/perf_event_paranoid
3
Если значение менее трех, то установить рекомендуемое значение:
# echo 3 > /proc/sys/kernel/perf_event_paranoid
# echo 'kernel.perf_event_paranoid = 3' >> /etc/sysctl.conf