Поваренная книга по ведению журналов

Автор:

Винай Саджип <vinay_sajip at red-dove dot com>

Эта страница содержит ряд рецептов, связанных с протоколированием, которые были полезны в прошлом. Ссылки на учебную и справочную информацию см. в разделе Другие ресурсы.

Использование протоколирования в нескольких модулях

Несколько вызовов logging.getLogger('someLogger') возвращают ссылку на один и тот же объект логгера. Это справедливо не только в пределах одного модуля, но и между модулями, если они находятся в одном и том же процессе интерпретатора Python. Это справедливо для ссылок на один и тот же объект; кроме того, код приложения может определить и настроить родительский логгер в одном модуле и создать (но не настраивать) дочерний логгер в отдельном модуле, и все вызовы дочернего логгера будут передаваться родительскому. Вот основной модуль:

import logging
import auxiliary_module

# create logger with 'spam_application'
logger = logging.getLogger('spam_application')
logger.setLevel(logging.DEBUG)
# create file handler which logs even debug messages
fh = logging.FileHandler('spam.log')
fh.setLevel(logging.DEBUG)
# create console handler with a higher log level
ch = logging.StreamHandler()
ch.setLevel(logging.ERROR)
# create formatter and add it to the handlers
formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
fh.setFormatter(formatter)
ch.setFormatter(formatter)
# add the handlers to the logger
logger.addHandler(fh)
logger.addHandler(ch)

logger.info('creating an instance of auxiliary_module.Auxiliary')
a = auxiliary_module.Auxiliary()
logger.info('created an instance of auxiliary_module.Auxiliary')
logger.info('calling auxiliary_module.Auxiliary.do_something')
a.do_something()
logger.info('finished auxiliary_module.Auxiliary.do_something')
logger.info('calling auxiliary_module.some_function()')
auxiliary_module.some_function()
logger.info('done with auxiliary_module.some_function()')

Вот вспомогательный модуль:

import logging

# create logger
module_logger = logging.getLogger('spam_application.auxiliary')

class Auxiliary:
    def __init__(self):
        self.logger = logging.getLogger('spam_application.auxiliary.Auxiliary')
        self.logger.info('creating an instance of Auxiliary')

    def do_something(self):
        self.logger.info('doing something')
        a = 1 + 1
        self.logger.info('done doing something')

def some_function():
    module_logger.info('received a call to "some_function"')

Выходные данные выглядят следующим образом:

2005-03-23 23:47:11,663 - spam_application - INFO -
   creating an instance of auxiliary_module.Auxiliary
2005-03-23 23:47:11,665 - spam_application.auxiliary.Auxiliary - INFO -
   creating an instance of Auxiliary
2005-03-23 23:47:11,665 - spam_application - INFO -
   created an instance of auxiliary_module.Auxiliary
2005-03-23 23:47:11,668 - spam_application - INFO -
   calling auxiliary_module.Auxiliary.do_something
2005-03-23 23:47:11,668 - spam_application.auxiliary.Auxiliary - INFO -
   doing something
2005-03-23 23:47:11,669 - spam_application.auxiliary.Auxiliary - INFO -
   done doing something
2005-03-23 23:47:11,670 - spam_application - INFO -
   finished auxiliary_module.Auxiliary.do_something
2005-03-23 23:47:11,671 - spam_application - INFO -
   calling auxiliary_module.some_function()
2005-03-23 23:47:11,672 - spam_application.auxiliary - INFO -
   received a call to 'some_function'
2005-03-23 23:47:11,673 - spam_application - INFO -
   done with auxiliary_module.some_function()

Ведение журнала из нескольких потоков

Ведение журнала из нескольких потоков не требует особых усилий. В следующем примере показано ведение журнала из главного (начального) потока и другого потока:

import logging
import threading
import time

def worker(arg):
    while not arg['stop']:
        logging.debug('Hi from myfunc')
        time.sleep(0.5)

def main():
    logging.basicConfig(level=logging.DEBUG, format='%(relativeCreated)6d %(threadName)s %(message)s')
    info = {'stop': False}
    thread = threading.Thread(target=worker, args=(info,))
    thread.start()
    while True:
        try:
            logging.debug('Hello from main')
            time.sleep(0.75)
        except KeyboardInterrupt:
            info['stop'] = True
            break
    thread.join()

if __name__ == '__main__':
    main()

После выполнения скрипт должен вывести что-то вроде следующего:

   0 Thread-1 Hi from myfunc
   3 MainThread Hello from main
 505 Thread-1 Hi from myfunc
 755 MainThread Hello from main
1007 Thread-1 Hi from myfunc
1507 MainThread Hello from main
1508 Thread-1 Hi from myfunc
2010 Thread-1 Hi from myfunc
2258 MainThread Hello from main
2512 Thread-1 Hi from myfunc
3009 MainThread Hello from main
3013 Thread-1 Hi from myfunc
3515 Thread-1 Hi from myfunc
3761 MainThread Hello from main
4017 Thread-1 Hi from myfunc
4513 MainThread Hello from main
4518 Thread-1 Hi from myfunc

Здесь показан вывод логов, перемежающийся, как и следовало ожидать. Разумеется, этот подход работает для большего числа потоков, чем показано здесь.

Несколько обработчиков и форматеров

Логгеры - это обычные объекты Python. Метод addHandler() не имеет минимальной или максимальной квоты на количество добавляемых обработчиков. Иногда бывает полезно, чтобы приложение записывало все сообщения всех степеней тяжести в текстовый файл, одновременно выводя на консоль сообщения об ошибках и выше. Чтобы настроить это, просто сконфигурируйте соответствующие обработчики. Вызовы логирования в коде приложения останутся неизменными. Вот небольшая модификация предыдущего примера простой настройки на основе модулей:

import logging

logger = logging.getLogger('simple_example')
logger.setLevel(logging.DEBUG)
# create file handler which logs even debug messages
fh = logging.FileHandler('spam.log')
fh.setLevel(logging.DEBUG)
# create console handler with a higher log level
ch = logging.StreamHandler()
ch.setLevel(logging.ERROR)
# create formatter and add it to the handlers
formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
ch.setFormatter(formatter)
fh.setFormatter(formatter)
# add the handlers to logger
logger.addHandler(ch)
logger.addHandler(fh)

# 'application' code
logger.debug('debug message')
logger.info('info message')
logger.warning('warn message')
logger.error('error message')
logger.critical('critical message')

Обратите внимание, что код «приложения» не заботится о множественных обработчиках. Все, что изменилось, - это добавление и настройка нового обработчика с именем fh.

Возможность создавать новые обработчики с фильтрами повышенной или пониженной серьезности может быть очень полезна при написании и тестировании приложения. Вместо того чтобы использовать много операторов print для отладки, используйте logger.debug: В отличие от операторов print, которые впоследствии придется удалить или закомментировать, операторы logger.debug могут оставаться нетронутыми в исходном коде и бездействовать до тех пор, пока они не понадобятся вам снова. В это время единственное изменение, которое должно произойти, - это изменение уровня серьезности регистратора и/или обработчика на отладочный.

Ведение журнала в нескольких местах назначения

Допустим, вы хотите вести журнал в консоль и в файл с разными форматами сообщений и в разных обстоятельствах. Допустим, вы хотите записывать сообщения с уровнем DEBUG и выше в файл, а сообщения с уровнем INFO и выше - в консоль. Предположим также, что файл должен содержать временные метки, а консольные сообщения - нет. Вот как этого можно добиться:

import logging

# set up logging to file - see previous section for more details
logging.basicConfig(level=logging.DEBUG,
                    format='%(asctime)s %(name)-12s %(levelname)-8s %(message)s',
                    datefmt='%m-%d %H:%M',
                    filename='/tmp/myapp.log',
                    filemode='w')
# define a Handler which writes INFO messages or higher to the sys.stderr
console = logging.StreamHandler()
console.setLevel(logging.INFO)
# set a format which is simpler for console use
formatter = logging.Formatter('%(name)-12s: %(levelname)-8s %(message)s')
# tell the handler to use this format
console.setFormatter(formatter)
# add the handler to the root logger
logging.getLogger('').addHandler(console)

# Now, we can log to the root logger, or any other logger. First the root...
logging.info('Jackdaws love my big sphinx of quartz.')

# Now, define a couple of other loggers which might represent areas in your
# application:

logger1 = logging.getLogger('myapp.area1')
logger2 = logging.getLogger('myapp.area2')

logger1.debug('Quick zephyrs blow, vexing daft Jim.')
logger1.info('How quickly daft jumping zebras vex.')
logger2.warning('Jail zesty vixen who grabbed pay from quack.')
logger2.error('The five boxing wizards jump quickly.')

Когда вы запустите эту программу, в консоли вы увидите

root        : INFO     Jackdaws love my big sphinx of quartz.
myapp.area1 : INFO     How quickly daft jumping zebras vex.
myapp.area2 : WARNING  Jail zesty vixen who grabbed pay from quack.
myapp.area2 : ERROR    The five boxing wizards jump quickly.

и в файле вы увидите что-то вроде

10-22 22:19 root         INFO     Jackdaws love my big sphinx of quartz.
10-22 22:19 myapp.area1  DEBUG    Quick zephyrs blow, vexing daft Jim.
10-22 22:19 myapp.area1  INFO     How quickly daft jumping zebras vex.
10-22 22:19 myapp.area2  WARNING  Jail zesty vixen who grabbed pay from quack.
10-22 22:19 myapp.area2  ERROR    The five boxing wizards jump quickly.

Как видите, в файле отображается только сообщение DEBUG. Остальные сообщения отправляются в оба места назначения.

В этом примере используются консольные и файловые обработчики, но вы можете использовать любое количество и комбинацию обработчиков по своему усмотрению.

Обратите внимание, что указанный выше выбор имени файла журнала /tmp/myapp.log подразумевает использование стандартного места для временных файлов в POSIX-системах. В Windows вам может потребоваться выбрать другое имя каталога для журнала - просто убедитесь, что каталог существует и что у вас есть права на создание и обновление файлов в нем.

Пользовательская обработка уровней

Иногда вам может понадобиться сделать что-то, отличающееся от стандартной обработки уровней в обработчиках, когда все уровни, превышающие порог, обрабатываются обработчиком. Для этого нужно использовать фильтры. Давайте рассмотрим сценарий, в котором вы хотите организовать все следующим образом:

  • Отправьте сообщения со степенью серьезности INFO и WARNING на sys.stdout.

  • Отправляйте сообщения со степенью серьезности ERROR и выше на sys.stderr.

  • Отправляйте сообщения со степенью серьезности DEBUG и выше в файл app.log

Предположим, что вы настроили ведение журнала с помощью следующего JSON:

{
    "version": 1,
    "disable_existing_loggers": false,
    "formatters": {
        "simple": {
            "format": "%(levelname)-8s - %(message)s"
        }
    },
    "handlers": {
        "stdout": {
            "class": "logging.StreamHandler",
            "level": "INFO",
            "formatter": "simple",
            "stream": "ext://sys.stdout"
        },
        "stderr": {
            "class": "logging.StreamHandler",
            "level": "ERROR",
            "formatter": "simple",
            "stream": "ext://sys.stderr"
        },
        "file": {
            "class": "logging.FileHandler",
            "formatter": "simple",
            "filename": "app.log",
            "mode": "w"
        }
    },
    "root": {
        "level": "DEBUG",
        "handlers": [
            "stderr",
            "stdout",
            "file"
        ]
    }
}

Эта конфигурация делает почти то, что мы хотим, за исключением того, что sys.stdout будет показывать сообщения со степенью серьезности ERROR, и только события этой степени серьезности и выше будут отслеживаться, так же как и сообщения INFO и WARNING. Чтобы предотвратить это, мы можем настроить фильтр, исключающий такие сообщения, и добавить его в соответствующий обработчик. Это можно настроить, добавив секцию filters параллельно с formatters и handlers:

{
    "filters": {
        "warnings_and_below": {
            "()" : "__main__.filter_maker",
            "level": "WARNING"
        }
    }
}

и измените секцию обработчика stdout, чтобы добавить его:

{
    "stdout": {
        "class": "logging.StreamHandler",
        "level": "INFO",
        "formatter": "simple",
        "stream": "ext://sys.stdout",
        "filters": ["warnings_and_below"]
    }
}

Фильтр - это просто функция, поэтому мы можем определить filter_maker (фабричную функцию) следующим образом:

def filter_maker(level):
    level = getattr(logging, level)

    def filter(record):
        return record.levelno <= level

    return filter

Она преобразует переданный строковый аргумент в числовой уровень и возвращает функцию, которая возвращает True только в том случае, если уровень переданной записи находится на указанном уровне или ниже. Обратите внимание, что в этом примере я определил filter_maker в тестовом скрипте main.py, который запускаю из командной строки, поэтому его модуль будет __main__. - отсюда и __main__.filter_maker в конфигурации фильтра. Вам нужно будет изменить это, если вы определите его в другом модуле.

Добавив фильтр, мы можем выполнить main.py, что в полном виде означает:

import json
import logging
import logging.config

CONFIG = '''
{
    "version": 1,
    "disable_existing_loggers": false,
    "formatters": {
        "simple": {
            "format": "%(levelname)-8s - %(message)s"
        }
    },
    "filters": {
        "warnings_and_below": {
            "()" : "__main__.filter_maker",
            "level": "WARNING"
        }
    },
    "handlers": {
        "stdout": {
            "class": "logging.StreamHandler",
            "level": "INFO",
            "formatter": "simple",
            "stream": "ext://sys.stdout",
            "filters": ["warnings_and_below"]
        },
        "stderr": {
            "class": "logging.StreamHandler",
            "level": "ERROR",
            "formatter": "simple",
            "stream": "ext://sys.stderr"
        },
        "file": {
            "class": "logging.FileHandler",
            "formatter": "simple",
            "filename": "app.log",
            "mode": "w"
        }
    },
    "root": {
        "level": "DEBUG",
        "handlers": [
            "stderr",
            "stdout",
            "file"
        ]
    }
}
'''

def filter_maker(level):
    level = getattr(logging, level)

    def filter(record):
        return record.levelno <= level

    return filter

logging.config.dictConfig(json.loads(CONFIG))
logging.debug('A DEBUG message')
logging.info('An INFO message')
logging.warning('A WARNING message')
logging.error('An ERROR message')
logging.critical('A CRITICAL message')

И после запуска его в таком виде:

python main.py 2>stderr.log >stdout.log

Мы видим, что результаты соответствуют ожиданиям:

$ more *.log
::::::::::::::
app.log
::::::::::::::
DEBUG    - A DEBUG message
INFO     - An INFO message
WARNING  - A WARNING message
ERROR    - An ERROR message
CRITICAL - A CRITICAL message
::::::::::::::
stderr.log
::::::::::::::
ERROR    - An ERROR message
CRITICAL - A CRITICAL message
::::::::::::::
stdout.log
::::::::::::::
INFO     - An INFO message
WARNING  - A WARNING message

Пример сервера конфигурации

Вот пример модуля, использующего сервер конфигурации протоколирования:

import logging
import logging.config
import time
import os

# read initial config file
logging.config.fileConfig('logging.conf')

# create and start listener on port 9999
t = logging.config.listen(9999)
t.start()

logger = logging.getLogger('simpleExample')

try:
    # loop through logging calls to see the difference
    # new configurations make, until Ctrl+C is pressed
    while True:
        logger.debug('debug message')
        logger.info('info message')
        logger.warning('warn message')
        logger.error('error message')
        logger.critical('critical message')
        time.sleep(5)
except KeyboardInterrupt:
    # cleanup
    logging.config.stopListening()
    t.join()

А вот сценарий, который принимает имя файла и отправляет его на сервер, правильно предваряя двоично-кодированной длиной, в качестве новой конфигурации ведения журнала:

#!/usr/bin/env python
import socket, sys, struct

with open(sys.argv[1], 'rb') as f:
    data_to_send = f.read()

HOST = 'localhost'
PORT = 9999
s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
print('connecting...')
s.connect((HOST, PORT))
print('sending config...')
s.send(struct.pack('>L', len(data_to_send)))
s.send(data_to_send)
s.close()
print('complete')

Работа с обработчиками, которые блокируют

Иногда вам нужно заставить обработчики протоколирования выполнять свою работу, не блокируя поток, из которого ведется протоколирование. Это часто встречается в веб-приложениях, хотя, конечно, бывает и в других сценариях.

Частым виновником вялого поведения является SMTPHandler: отправка писем может занимать много времени по ряду причин, не зависящих от разработчика (например, из-за плохой работы почтовой или сетевой инфраструктуры). Но практически любой сетевой обработчик может заблокироваться: Даже операция SocketHandler может выполнять DNS-запрос, который слишком медленный (и этот запрос может находиться глубоко в коде библиотеки сокетов, ниже уровня Python и вне вашего контроля).

Одно из решений - использовать подход, состоящий из двух частей. Для первой части прикрепите только QueueHandler к тем логгерам, к которым обращаются критически важные по производительности потоки. Они просто пишут в свою очередь, которая может иметь достаточно большой размер или инициализироваться без верхнего ограничения размера. Запись в очередь обычно принимается быстро, хотя вам, вероятно, придется перехватывать исключение queue.Full в качестве меры предосторожности в своем коде. Если вы являетесь разработчиком библиотеки, в коде которой присутствуют потоки, критичные к производительности, обязательно задокументируйте это (вместе с предложением подключать к логгерам только QueueHandlers) для пользы других разработчиков, которые будут использовать ваш код.

Вторая часть решения - это QueueListener, который был разработан как аналог QueueHandler. QueueListener очень прост: ему передается очередь и несколько обработчиков, и он запускает внутренний поток, который прослушивает свою очередь на предмет LogRecords, отправленных от QueueHandlers (или любого другого источника LogRecords, если на то пошло). Эти LogRecords удаляются из очереди и передаются обработчикам для обработки.

Преимущество отдельного класса QueueListener в том, что вы можете использовать один и тот же экземпляр для обслуживания нескольких QueueHandlers. Это более удобно для ресурсов, чем, скажем, потоковые версии существующих классов-обработчиков, которые будут потреблять по одному потоку на каждый обработчик без особой пользы.

Пример использования этих двух классов приведен ниже (импорт опущен):

que = queue.Queue(-1)  # no limit on size
queue_handler = QueueHandler(que)
handler = logging.StreamHandler()
listener = QueueListener(que, handler)
root = logging.getLogger()
root.addHandler(queue_handler)
formatter = logging.Formatter('%(threadName)s: %(message)s')
handler.setFormatter(formatter)
listener.start()
# The log output will display the thread which generated
# the event (the main thread) rather than the internal
# thread which monitors the internal queue. This is what
# you want to happen.
root.warning('Look out!')
listener.stop()

который при запуске будет производить:

MainThread: Look out!

Примечание

Хотя в предыдущем обсуждении речь шла не конкретно об асинхронном коде, а скорее о медленных обработчиках логирования, следует отметить, что при логировании из асинхронного кода сетевые и даже файловые обработчики могут привести к проблемам (блокирование цикла событий), поскольку часть логирования выполняется из внутренних потоков asyncio. Возможно, если в приложении используется асинхронный код, лучше использовать описанный выше подход к логированию, чтобы любой блокирующий код выполнялся только в потоке QueueListener.

Изменено в версии 3.5: До Python 3.5 QueueListener всегда передавал каждое сообщение, полученное из очереди, каждому обработчику, с которым он инициализировался. (Это происходило потому, что предполагалось, что фильтрация уровней выполняется на другой стороне, где заполняется очередь). Начиная с версии 3.5 это поведение можно изменить, передав в конструктор слушателя аргумент с ключевым словом respect_handler_level=True. После этого слушатель сравнивает уровень каждого сообщения с уровнем обработчика и передает сообщение обработчику только в том случае, если это целесообразно.

Отправка и получение событий регистрации по сети

Допустим, вы хотите отправлять события регистрации по сети и обрабатывать их на принимающем конце. Простой способ сделать это - прикрепить экземпляр SocketHandler к корневому регистратору на стороне отправителя:

import logging, logging.handlers

rootLogger = logging.getLogger('')
rootLogger.setLevel(logging.DEBUG)
socketHandler = logging.handlers.SocketHandler('localhost',
                    logging.handlers.DEFAULT_TCP_LOGGING_PORT)
# don't bother with a formatter, since a socket handler sends the event as
# an unformatted pickle
rootLogger.addHandler(socketHandler)

# Now, we can log to the root logger, or any other logger. First the root...
logging.info('Jackdaws love my big sphinx of quartz.')

# Now, define a couple of other loggers which might represent areas in your
# application:

logger1 = logging.getLogger('myapp.area1')
logger2 = logging.getLogger('myapp.area2')

logger1.debug('Quick zephyrs blow, vexing daft Jim.')
logger1.info('How quickly daft jumping zebras vex.')
logger2.warning('Jail zesty vixen who grabbed pay from quack.')
logger2.error('The five boxing wizards jump quickly.')

На приемной стороне вы можете настроить приемник с помощью модуля socketserver. Вот базовый рабочий пример:

import pickle
import logging
import logging.handlers
import socketserver
import struct


class LogRecordStreamHandler(socketserver.StreamRequestHandler):
    """Handler for a streaming logging request.

    This basically logs the record using whatever logging policy is
    configured locally.
    """

    def handle(self):
        """
        Handle multiple requests - each expected to be a 4-byte length,
        followed by the LogRecord in pickle format. Logs the record
        according to whatever policy is configured locally.
        """
        while True:
            chunk = self.connection.recv(4)
            if len(chunk) < 4:
                break
            slen = struct.unpack('>L', chunk)[0]
            chunk = self.connection.recv(slen)
            while len(chunk) < slen:
                chunk = chunk + self.connection.recv(slen - len(chunk))
            obj = self.unPickle(chunk)
            record = logging.makeLogRecord(obj)
            self.handleLogRecord(record)

    def unPickle(self, data):
        return pickle.loads(data)

    def handleLogRecord(self, record):
        # if a name is specified, we use the named logger rather than the one
        # implied by the record.
        if self.server.logname is not None:
            name = self.server.logname
        else:
            name = record.name
        logger = logging.getLogger(name)
        # N.B. EVERY record gets logged. This is because Logger.handle
        # is normally called AFTER logger-level filtering. If you want
        # to do filtering, do it at the client end to save wasting
        # cycles and network bandwidth!
        logger.handle(record)

class LogRecordSocketReceiver(socketserver.ThreadingTCPServer):
    """
    Simple TCP socket-based logging receiver suitable for testing.
    """

    allow_reuse_address = True

    def __init__(self, host='localhost',
                 port=logging.handlers.DEFAULT_TCP_LOGGING_PORT,
                 handler=LogRecordStreamHandler):
        socketserver.ThreadingTCPServer.__init__(self, (host, port), handler)
        self.abort = 0
        self.timeout = 1
        self.logname = None

    def serve_until_stopped(self):
        import select
        abort = 0
        while not abort:
            rd, wr, ex = select.select([self.socket.fileno()],
                                       [], [],
                                       self.timeout)
            if rd:
                self.handle_request()
            abort = self.abort

def main():
    logging.basicConfig(
        format='%(relativeCreated)5d %(name)-15s %(levelname)-8s %(message)s')
    tcpserver = LogRecordSocketReceiver()
    print('About to start TCP server...')
    tcpserver.serve_until_stopped()

if __name__ == '__main__':
    main()

Сначала запустите сервер, а затем клиента. На стороне клиента в консоль ничего не выводится, а на стороне сервера вы должны увидеть что-то вроде:

About to start TCP server...
   59 root            INFO     Jackdaws love my big sphinx of quartz.
   59 myapp.area1     DEBUG    Quick zephyrs blow, vexing daft Jim.
   69 myapp.area1     INFO     How quickly daft jumping zebras vex.
   69 myapp.area2     WARNING  Jail zesty vixen who grabbed pay from quack.
   69 myapp.area2     ERROR    The five boxing wizards jump quickly.

Обратите внимание, что в некоторых сценариях с pickle возникают проблемы с безопасностью. Если они вас беспокоят, вы можете использовать альтернативную схему сериализации, переопределив метод makePickle() и реализовав в нем свой вариант, а также адаптировав приведенный выше сценарий для использования альтернативной сериализации.

Запуск слушателя сокетов протоколирования в производстве

Чтобы запустить прослушиватель логов в производстве, вам может понадобиться инструмент управления процессами, такой как Supervisor. Here is a Gist, который предоставляет пустые файлы для запуска описанной выше функциональности с помощью Supervisor. Он состоит из следующих файлов:

Файл

Назначение

prepare.sh

Сценарий Bash для подготовки среды к тестированию

supervisor.conf

Конфигурационный файл Supervisor, содержащий записи для слушателя и многопроцессного веб-приложения

ensure_app.sh

Сценарий Bash для проверки того, что Supervisor работает с указанной выше конфигурацией

log_listener.py

Программа-слушатель сокетов, которая получает события журнала и записывает их в файл

main.py

Простое веб-приложение, выполняющее протоколирование через сокет, подключенный к слушателю

webapp.json

Конфигурационный файл JSON для веб-приложения

client.py

Сценарий Python для выполнения веб-приложения

Веб-приложение использует Gunicorn, который является популярным сервером веб-приложений, запускающим несколько рабочих процессов для обработки запросов. В этом примере показано, как рабочие процессы могут писать в один и тот же файл журнала, не конфликтуя друг с другом - все они проходят через приемник сокетов.

Чтобы проверить эти файлы, выполните следующие действия в среде POSIX:

  1. Скачайте the Gist в ZIP-архиве, используя кнопку Download ZIP.

  2. Распакуйте указанные выше файлы из архива в нулевой каталог.

  3. В каталоге scratch запустите команду bash prepare.sh, чтобы все было готово. Это создаст подкаталог run, содержащий файлы Supervisor-related и журналы, и подкаталог venv, содержащий виртуальное окружение, в которое будут установлены bottle, gunicorn и supervisor.

  4. Выполните команду bash ensure_app.sh, чтобы убедиться, что Supervisor работает с указанной выше конфигурацией.

  5. Запустите venv/bin/python client.py для тренировки веб-приложения, что приведет к записи записей в журнал.

  6. Просмотрите файлы журнала в подкаталоге run. Вы должны увидеть самые последние строки журнала в файлах, соответствующих шаблону app.log*. Они не будут расположены в определенном порядке, поскольку обрабатывались параллельно разными рабочими процессами недетерминированным образом.

  7. Вы можете выключить слушатель и веб-приложение, выполнив команду venv/bin/supervisorctl -c supervisor.conf shutdown.

Вам может понадобиться подправить конфигурационные файлы в том маловероятном случае, если настроенные порты будут конфликтовать с чем-то другим в вашей тестовой среде.

Добавление контекстной информации в вывод журнала

Иногда требуется, чтобы вывод журнала содержал контекстную информацию в дополнение к параметрам, передаваемым в вызов журнала. Например, в сетевом приложении может быть желательно записывать в журнал специфическую для клиента информацию (например, имя пользователя удаленного клиента или IP-адрес). Хотя для этого можно использовать параметр extra, не всегда удобно передавать информацию таким образом. Хотя может возникнуть соблазн создать экземпляры Logger на основе каждого соединения, это не очень хорошая идея, поскольку такие экземпляры не собираются в мусор. Хотя на практике это не является проблемой, когда количество экземпляров Logger зависит от уровня детализации, который вы хотите использовать при протоколировании приложения, может возникнуть проблема, если количество экземпляров Logger станет фактически неограниченным.

Использование LoggerAdapters для передачи контекстной информации

Простой способ передать контекстную информацию для вывода вместе с информацией о событии регистрации - использовать класс LoggerAdapter. Этот класс выглядит как Logger, так что вы можете вызывать методы debug(), info(), warning(), error(), exception(), critical() и log(). Эти методы имеют те же сигнатуры, что и их аналоги в Logger, поэтому вы можете использовать эти два типа экземпляров взаимозаменяемо.

Когда вы создаете экземпляр LoggerAdapter, вы передаете ему экземпляр Logger и диктоподобный объект, содержащий контекстную информацию. Когда вы вызываете один из методов логирования на экземпляре LoggerAdapter, он делегирует вызов базовому экземпляру Logger, переданному в его конструктор, и организует передачу контекстной информации в делегированном вызове. Вот фрагмент из кода LoggerAdapter:

def debug(self, msg, /, *args, **kwargs):
    """
    Delegate a debug call to the underlying logger, after adding
    contextual information from this adapter instance.
    """
    msg, kwargs = self.process(msg, kwargs)
    self.logger.debug(msg, *args, **kwargs)

Метод process() метода LoggerAdapter - это место, где контекстная информация добавляется к выводу журнала. Ему передаются аргументы message и keyword вызова логирования, и он передает обратно (потенциально) модифицированные версии этих аргументов для использования в вызове базового логгера. Реализация этого метода по умолчанию оставляет сообщение в покое, но вставляет «дополнительный» ключ в аргумент keyword, значением которого является диктоподобный объект, переданный в конструктор. Конечно, если вы передали «лишний» аргумент ключевого слова в вызове адаптера, он будет молча перезаписан.

Преимущество использования „extra“ заключается в том, что значения в диктоподобном объекте объединяются в __dict__ экземпляра LogRecord, что позволяет использовать пользовательские строки с экземплярами Formatter, которые знают о ключах диктоподобного объекта. Если вам нужен другой метод, например, если вы хотите добавить или дополнить контекстную информацию к строке сообщения, вам просто нужно подкласс LoggerAdapter и переопределить process(), чтобы сделать то, что вам нужно. Вот простой пример:

class CustomAdapter(logging.LoggerAdapter):
    """
    This example adapter expects the passed in dict-like object to have a
    'connid' key, whose value in brackets is prepended to the log message.
    """
    def process(self, msg, kwargs):
        return '[%s] %s' % (self.extra['connid'], msg), kwargs

которые можно использовать следующим образом:

logger = logging.getLogger(__name__)
adapter = CustomAdapter(logger, {'connid': some_conn_id})

Тогда все события, которые вы регистрируете на адаптере, будут иметь значение some_conn_id, добавляемое к сообщениям журнала.

Использование объектов, отличных от таблиц, для передачи контекстной информации

Вам не нужно передавать фактический dict в LoggerAdapter. - Вы можете передать экземпляр класса, который реализует __getitem__ и __iter__, чтобы он выглядел как dict для логирования. Это будет полезно, если вы хотите генерировать значения динамически (в то время как значения в dict будут постоянными).

Использование фильтров для передачи контекстной информации

Вы также можете добавить контекстную информацию к выводу журнала с помощью определяемого пользователем Filter. Экземпляры Filter могут изменять переданные им LogRecords, включая добавление дополнительных атрибутов, которые затем могут быть выведены с помощью подходящей строки формата или, при необходимости, пользовательского Formatter.

Например, в веб-приложении обрабатываемый запрос (или, по крайней мере, его интересные части) можно хранить в потоковой переменной (threading.local), а затем обращаться к ней из Filter, чтобы добавить, скажем, информацию из запроса - удаленный IP-адрес и имя пользователя - в LogRecord, используя имена атрибутов „ip“ и „user“, как в примере LoggerAdapter выше. В этом случае можно использовать ту же строку формата, чтобы получить результат, аналогичный показанному выше. Вот пример сценария:

import logging
from random import choice

class ContextFilter(logging.Filter):
    """
    This is a filter which injects contextual information into the log.

    Rather than use actual contextual information, we just use random
    data in this demo.
    """

    USERS = ['jim', 'fred', 'sheila']
    IPS = ['123.231.231.123', '127.0.0.1', '192.168.0.1']

    def filter(self, record):

        record.ip = choice(ContextFilter.IPS)
        record.user = choice(ContextFilter.USERS)
        return True

if __name__ == '__main__':
    levels = (logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR, logging.CRITICAL)
    logging.basicConfig(level=logging.DEBUG,
                        format='%(asctime)-15s %(name)-5s %(levelname)-8s IP: %(ip)-15s User: %(user)-8s %(message)s')
    a1 = logging.getLogger('a.b.c')
    a2 = logging.getLogger('d.e.f')

    f = ContextFilter()
    a1.addFilter(f)
    a2.addFilter(f)
    a1.debug('A debug message')
    a1.info('An info message with %s', 'some parameters')
    for x in range(10):
        lvl = choice(levels)
        lvlname = logging.getLevelName(lvl)
        a2.log(lvl, 'A message at %s level with %d %s', lvlname, 2, 'parameters')

который при запуске выдает что-то вроде:

2010-09-06 22:38:15,292 a.b.c DEBUG    IP: 123.231.231.123 User: fred     A debug message
2010-09-06 22:38:15,300 a.b.c INFO     IP: 192.168.0.1     User: sheila   An info message with some parameters
2010-09-06 22:38:15,300 d.e.f CRITICAL IP: 127.0.0.1       User: sheila   A message at CRITICAL level with 2 parameters
2010-09-06 22:38:15,300 d.e.f ERROR    IP: 127.0.0.1       User: jim      A message at ERROR level with 2 parameters
2010-09-06 22:38:15,300 d.e.f DEBUG    IP: 127.0.0.1       User: sheila   A message at DEBUG level with 2 parameters
2010-09-06 22:38:15,300 d.e.f ERROR    IP: 123.231.231.123 User: fred     A message at ERROR level with 2 parameters
2010-09-06 22:38:15,300 d.e.f CRITICAL IP: 192.168.0.1     User: jim      A message at CRITICAL level with 2 parameters
2010-09-06 22:38:15,300 d.e.f CRITICAL IP: 127.0.0.1       User: sheila   A message at CRITICAL level with 2 parameters
2010-09-06 22:38:15,300 d.e.f DEBUG    IP: 192.168.0.1     User: jim      A message at DEBUG level with 2 parameters
2010-09-06 22:38:15,301 d.e.f ERROR    IP: 127.0.0.1       User: sheila   A message at ERROR level with 2 parameters
2010-09-06 22:38:15,301 d.e.f DEBUG    IP: 123.231.231.123 User: fred     A message at DEBUG level with 2 parameters
2010-09-06 22:38:15,301 d.e.f INFO     IP: 123.231.231.123 User: fred     A message at INFO level with 2 parameters

Использование contextvars

Начиная с Python 3.7, модуль contextvars предоставляет контекстно-локальное хранилище, которое подходит для обработки как threading, так и asyncio. Таким образом, этот тип хранения может быть в целом предпочтительнее потоковых локалей. Следующий пример показывает, как в многопоточной среде журналы могут быть наполнены контекстной информацией, такой как, например, атрибуты запросов, обрабатываемых веб-приложениями.

Для наглядности предположим, что у вас есть разные веб-приложения, каждое из которых не зависит от другого, но выполняется в одном процессе Python и использует общую для них библиотеку. Как сделать так, чтобы каждое из этих приложений имело свой собственный журнал, в котором все сообщения журнала от библиотеки (и другого кода обработки запросов) направлялись бы в файл журнала соответствующего приложения, включая в журнал дополнительную контекстную информацию, такую как IP-адрес клиента, метод HTTP-запроса и имя пользователя клиента?

Предположим, что библиотека может быть смоделирована с помощью следующего кода:

# webapplib.py
import logging
import time

logger = logging.getLogger(__name__)

def useful():
    # Just a representative event logged from the library
    logger.debug('Hello from webapplib!')
    # Just sleep for a bit so other threads get to run
    time.sleep(0.01)

Мы можем имитировать многопоточные веб-приложения с помощью двух простых классов, Request и WebApp. Они имитируют работу реальных многопоточных веб-приложений - каждый запрос обрабатывается потоком:

# main.py
import argparse
from contextvars import ContextVar
import logging
import os
from random import choice
import threading
import webapplib

logger = logging.getLogger(__name__)
root = logging.getLogger()
root.setLevel(logging.DEBUG)

class Request:
    """
    A simple dummy request class which just holds dummy HTTP request method,
    client IP address and client username
    """
    def __init__(self, method, ip, user):
        self.method = method
        self.ip = ip
        self.user = user

# A dummy set of requests which will be used in the simulation - we'll just pick
# from this list randomly. Note that all GET requests are from 192.168.2.XXX
# addresses, whereas POST requests are from 192.16.3.XXX addresses. Three users
# are represented in the sample requests.

REQUESTS = [
    Request('GET', '192.168.2.20', 'jim'),
    Request('POST', '192.168.3.20', 'fred'),
    Request('GET', '192.168.2.21', 'sheila'),
    Request('POST', '192.168.3.21', 'jim'),
    Request('GET', '192.168.2.22', 'fred'),
    Request('POST', '192.168.3.22', 'sheila'),
]

# Note that the format string includes references to request context information
# such as HTTP method, client IP and username

formatter = logging.Formatter('%(threadName)-11s %(appName)s %(name)-9s %(user)-6s %(ip)s %(method)-4s %(message)s')

# Create our context variables. These will be filled at the start of request
# processing, and used in the logging that happens during that processing

ctx_request = ContextVar('request')
ctx_appname = ContextVar('appname')

class InjectingFilter(logging.Filter):
    """
    A filter which injects context-specific information into logs and ensures
    that only information for a specific webapp is included in its log
    """
    def __init__(self, app):
        self.app = app

    def filter(self, record):
        request = ctx_request.get()
        record.method = request.method
        record.ip = request.ip
        record.user = request.user
        record.appName = appName = ctx_appname.get()
        return appName == self.app.name

class WebApp:
    """
    A dummy web application class which has its own handler and filter for a
    webapp-specific log.
    """
    def __init__(self, name):
        self.name = name
        handler = logging.FileHandler(name + '.log', 'w')
        f = InjectingFilter(self)
        handler.setFormatter(formatter)
        handler.addFilter(f)
        root.addHandler(handler)
        self.num_requests = 0

    def process_request(self, request):
        """
        This is the dummy method for processing a request. It's called on a
        different thread for every request. We store the context information into
        the context vars before doing anything else.
        """
        ctx_request.set(request)
        ctx_appname.set(self.name)
        self.num_requests += 1
        logger.debug('Request processing started')
        webapplib.useful()
        logger.debug('Request processing finished')

def main():
    fn = os.path.splitext(os.path.basename(__file__))[0]
    adhf = argparse.ArgumentDefaultsHelpFormatter
    ap = argparse.ArgumentParser(formatter_class=adhf, prog=fn,
                                 description='Simulate a couple of web '
                                             'applications handling some '
                                             'requests, showing how request '
                                             'context can be used to '
                                             'populate logs')
    aa = ap.add_argument
    aa('--count', '-c', type=int, default=100, help='How many requests to simulate')
    options = ap.parse_args()

    # Create the dummy webapps and put them in a list which we can use to select
    # from randomly
    app1 = WebApp('app1')
    app2 = WebApp('app2')
    apps = [app1, app2]
    threads = []
    # Add a common handler which will capture all events
    handler = logging.FileHandler('app.log', 'w')
    handler.setFormatter(formatter)
    root.addHandler(handler)

    # Generate calls to process requests
    for i in range(options.count):
        try:
            # Pick an app at random and a request for it to process
            app = choice(apps)
            request = choice(REQUESTS)
            # Process the request in its own thread
            t = threading.Thread(target=app.process_request, args=(request,))
            threads.append(t)
            t.start()
        except KeyboardInterrupt:
            break

    # Wait for the threads to terminate
    for t in threads:
        t.join()

    for app in apps:
        print('%s processed %s requests' % (app.name, app.num_requests))

if __name__ == '__main__':
    main()

Если вы выполните описанную выше процедуру, то обнаружите, что примерно половина запросов попадает в app1.log, остальные - в app2.log, а все запросы записываются в журнал app.log. Каждый журнал для конкретного webapp будет содержать записи только для этого webapp, а информация о запросах будет отображаться в журнале последовательно (т. е. информация в каждом фиктивном запросе всегда будет отображаться вместе в строке журнала). Это иллюстрирует следующий вывод оболочки:

~/logging-contextual-webapp$ python main.py
app1 processed 51 requests
app2 processed 49 requests
~/logging-contextual-webapp$ wc -l *.log
  153 app1.log
  147 app2.log
  300 app.log
  600 total
~/logging-contextual-webapp$ head -3 app1.log
Thread-3 (process_request) app1 __main__  jim    192.168.3.21 POST Request processing started
Thread-3 (process_request) app1 webapplib jim    192.168.3.21 POST Hello from webapplib!
Thread-5 (process_request) app1 __main__  jim    192.168.3.21 POST Request processing started
~/logging-contextual-webapp$ head -3 app2.log
Thread-1 (process_request) app2 __main__  sheila 192.168.2.21 GET  Request processing started
Thread-1 (process_request) app2 webapplib sheila 192.168.2.21 GET  Hello from webapplib!
Thread-2 (process_request) app2 __main__  jim    192.168.2.20 GET  Request processing started
~/logging-contextual-webapp$ head app.log
Thread-1 (process_request) app2 __main__  sheila 192.168.2.21 GET  Request processing started
Thread-1 (process_request) app2 webapplib sheila 192.168.2.21 GET  Hello from webapplib!
Thread-2 (process_request) app2 __main__  jim    192.168.2.20 GET  Request processing started
Thread-3 (process_request) app1 __main__  jim    192.168.3.21 POST Request processing started
Thread-2 (process_request) app2 webapplib jim    192.168.2.20 GET  Hello from webapplib!
Thread-3 (process_request) app1 webapplib jim    192.168.3.21 POST Hello from webapplib!
Thread-4 (process_request) app2 __main__  fred   192.168.2.22 GET  Request processing started
Thread-5 (process_request) app1 __main__  jim    192.168.3.21 POST Request processing started
Thread-4 (process_request) app2 webapplib fred   192.168.2.22 GET  Hello from webapplib!
Thread-6 (process_request) app1 __main__  jim    192.168.3.21 POST Request processing started
~/logging-contextual-webapp$ grep app1 app1.log | wc -l
153
~/logging-contextual-webapp$ grep app2 app2.log | wc -l
147
~/logging-contextual-webapp$ grep app1 app.log | wc -l
153
~/logging-contextual-webapp$ grep app2 app.log | wc -l
147

Внесение контекстной информации в обработчики

Каждый Handler имеет свою собственную цепочку фильтров. Если вы хотите добавить контекстную информацию в LogRecord без утечки ее в другие обработчики, вы можете использовать фильтр, возвращающий новый LogRecord, вместо того чтобы изменять его на месте, как показано в следующем сценарии:

import copy
import logging

def filter(record: logging.LogRecord):
    record = copy.copy(record)
    record.user = 'jim'
    return record

if __name__ == '__main__':
    logger = logging.getLogger()
    logger.setLevel(logging.INFO)
    handler = logging.StreamHandler()
    formatter = logging.Formatter('%(message)s from %(user)-8s')
    handler.setFormatter(formatter)
    handler.addFilter(filter)
    logger.addHandler(handler)

    logger.info('A log message')

Ведение журнала в одном файле из нескольких процессов

Хотя протоколирование безопасно для потоков, и протоколирование в один файл из нескольких потоков в одном процессе поддерживается, протоколирование в один файл из многих процессов не поддерживается, потому что в Python нет стандартного способа сериализации доступа к одному файлу для нескольких процессов. Если вам нужно вести журнал в один файл из нескольких процессов, один из способов сделать это - заставить все процессы вести журнал в SocketHandler, и иметь отдельный процесс, реализующий сокет-сервер, который читает из сокета и ведет журнал в файл. (При желании вы можете выделить один поток в одном из существующих процессов для выполнения этой функции). В This section этот подход описан более подробно и включает рабочий приемник сокетов, который можно использовать в качестве отправной точки для адаптации в собственных приложениях.

Вы также можете написать свой собственный обработчик, который использует класс Lock из модуля multiprocessing для сериализации доступа к файлу из ваших процессов. Существующие FileHandler и подклассы не используют multiprocessing в настоящее время, хотя они могут сделать это в будущем. Обратите внимание, что в настоящее время модуль multiprocessing не обеспечивает функциональность рабочей блокировки на всех платформах (см. https://bugs.python.org/issue3770).

В качестве альтернативы можно использовать Queue и QueueHandler, чтобы отправлять все события протоколирования одному из процессов многопроцессного приложения. Следующий пример сценария демонстрирует, как это можно сделать; в примере отдельный процесс-слушатель прослушивает события, отправленные другими процессами, и регистрирует их в соответствии с собственной конфигурацией протоколирования. Хотя пример демонстрирует только один из вариантов (например, вы можете использовать поток слушателя, а не отдельный процесс слушателя - реализация будет аналогичной), он позволяет создавать совершенно разные конфигурации протоколирования для слушателя и других процессов в вашем приложении и может быть использован в качестве основы для кода, отвечающего вашим специфическим требованиям:

# You'll need these imports in your own code
import logging
import logging.handlers
import multiprocessing

# Next two import lines for this demo only
from random import choice, random
import time

#
# Because you'll want to define the logging configurations for listener and workers, the
# listener and worker process functions take a configurer parameter which is a callable
# for configuring logging for that process. These functions are also passed the queue,
# which they use for communication.
#
# In practice, you can configure the listener however you want, but note that in this
# simple example, the listener does not apply level or filter logic to received records.
# In practice, you would probably want to do this logic in the worker processes, to avoid
# sending events which would be filtered out between processes.
#
# The size of the rotated files is made small so you can see the results easily.
def listener_configurer():
    root = logging.getLogger()
    h = logging.handlers.RotatingFileHandler('mptest.log', 'a', 300, 10)
    f = logging.Formatter('%(asctime)s %(processName)-10s %(name)s %(levelname)-8s %(message)s')
    h.setFormatter(f)
    root.addHandler(h)

# This is the listener process top-level loop: wait for logging events
# (LogRecords)on the queue and handle them, quit when you get a None for a
# LogRecord.
def listener_process(queue, configurer):
    configurer()
    while True:
        try:
            record = queue.get()
            if record is None:  # We send this as a sentinel to tell the listener to quit.
                break
            logger = logging.getLogger(record.name)
            logger.handle(record)  # No level or filter logic applied - just do it!
        except Exception:
            import sys, traceback
            print('Whoops! Problem:', file=sys.stderr)
            traceback.print_exc(file=sys.stderr)

# Arrays used for random selections in this demo

LEVELS = [logging.DEBUG, logging.INFO, logging.WARNING,
          logging.ERROR, logging.CRITICAL]

LOGGERS = ['a.b.c', 'd.e.f']

MESSAGES = [
    'Random message #1',
    'Random message #2',
    'Random message #3',
]

# The worker configuration is done at the start of the worker process run.
# Note that on Windows you can't rely on fork semantics, so each process
# will run the logging configuration code when it starts.
def worker_configurer(queue):
    h = logging.handlers.QueueHandler(queue)  # Just the one handler needed
    root = logging.getLogger()
    root.addHandler(h)
    # send all messages, for demo; no other level or filter logic applied.
    root.setLevel(logging.DEBUG)

# This is the worker process top-level loop, which just logs ten events with
# random intervening delays before terminating.
# The print messages are just so you know it's doing something!
def worker_process(queue, configurer):
    configurer(queue)
    name = multiprocessing.current_process().name
    print('Worker started: %s' % name)
    for i in range(10):
        time.sleep(random())
        logger = logging.getLogger(choice(LOGGERS))
        level = choice(LEVELS)
        message = choice(MESSAGES)
        logger.log(level, message)
    print('Worker finished: %s' % name)

# Here's where the demo gets orchestrated. Create the queue, create and start
# the listener, create ten workers and start them, wait for them to finish,
# then send a None to the queue to tell the listener to finish.
def main():
    queue = multiprocessing.Queue(-1)
    listener = multiprocessing.Process(target=listener_process,
                                       args=(queue, listener_configurer))
    listener.start()
    workers = []
    for i in range(10):
        worker = multiprocessing.Process(target=worker_process,
                                         args=(queue, worker_configurer))
        workers.append(worker)
        worker.start()
    for w in workers:
        w.join()
    queue.put_nowait(None)
    listener.join()

if __name__ == '__main__':
    main()

В варианте вышеприведенного сценария протоколирование ведется в основном процессе, в отдельном потоке:

import logging
import logging.config
import logging.handlers
from multiprocessing import Process, Queue
import random
import threading
import time

def logger_thread(q):
    while True:
        record = q.get()
        if record is None:
            break
        logger = logging.getLogger(record.name)
        logger.handle(record)


def worker_process(q):
    qh = logging.handlers.QueueHandler(q)
    root = logging.getLogger()
    root.setLevel(logging.DEBUG)
    root.addHandler(qh)
    levels = [logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
              logging.CRITICAL]
    loggers = ['foo', 'foo.bar', 'foo.bar.baz',
               'spam', 'spam.ham', 'spam.ham.eggs']
    for i in range(100):
        lvl = random.choice(levels)
        logger = logging.getLogger(random.choice(loggers))
        logger.log(lvl, 'Message no. %d', i)

if __name__ == '__main__':
    q = Queue()
    d = {
        'version': 1,
        'formatters': {
            'detailed': {
                'class': 'logging.Formatter',
                'format': '%(asctime)s %(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
            }
        },
        'handlers': {
            'console': {
                'class': 'logging.StreamHandler',
                'level': 'INFO',
            },
            'file': {
                'class': 'logging.FileHandler',
                'filename': 'mplog.log',
                'mode': 'w',
                'formatter': 'detailed',
            },
            'foofile': {
                'class': 'logging.FileHandler',
                'filename': 'mplog-foo.log',
                'mode': 'w',
                'formatter': 'detailed',
            },
            'errors': {
                'class': 'logging.FileHandler',
                'filename': 'mplog-errors.log',
                'mode': 'w',
                'level': 'ERROR',
                'formatter': 'detailed',
            },
        },
        'loggers': {
            'foo': {
                'handlers': ['foofile']
            }
        },
        'root': {
            'level': 'DEBUG',
            'handlers': ['console', 'file', 'errors']
        },
    }
    workers = []
    for i in range(5):
        wp = Process(target=worker_process, name='worker %d' % (i + 1), args=(q,))
        workers.append(wp)
        wp.start()
    logging.config.dictConfig(d)
    lp = threading.Thread(target=logger_thread, args=(q,))
    lp.start()
    # At this point, the main process could do some useful work of its own
    # Once it's done that, it can wait for the workers to terminate...
    for wp in workers:
        wp.join()
    # And now tell the logging thread to finish up, too
    q.put(None)
    lp.join()

Этот вариант показывает, как можно, например, применить конфигурацию для конкретных регистраторов - например, регистратор foo имеет специальный обработчик, который сохраняет все события в подсистеме foo в файле mplog-foo.log. Он будет использоваться механизмом регистрации в главном процессе (даже если события регистрации генерируются в рабочих процессах) для направления сообщений в соответствующие места назначения.

Использование concurrent.futures.ProcessPoolExecutor

Если вы хотите использовать concurrent.futures.ProcessPoolExecutor для запуска рабочих процессов, вам нужно создать очередь немного по-другому. Вместо

queue = multiprocessing.Queue(-1)

вы должны использовать

queue = multiprocessing.Manager().Queue(-1)  # also works with the examples above

и затем вы можете заменить создание рабочего из этого:

workers = []
for i in range(10):
    worker = multiprocessing.Process(target=worker_process,
                                     args=(queue, worker_configurer))
    workers.append(worker)
    worker.start()
for w in workers:
    w.join()

к этому (не забыв сначала импортировать concurrent.futures):

with concurrent.futures.ProcessPoolExecutor(max_workers=10) as executor:
    for i in range(10):
        executor.submit(worker_process, queue, worker_configurer)

Развертывание веб-приложений с помощью Gunicorn и uWSGI

При развертывании веб-приложений с помощью Gunicorn или uWSGI (или аналогичных) создается несколько рабочих процессов для обработки клиентских запросов. В таких средах следует избегать создания обработчиков на основе файлов непосредственно в веб-приложении. Вместо этого используйте SocketHandler для регистрации из веб-приложения в слушателе в отдельном процессе. Это можно настроить с помощью инструмента управления процессами, например Supervisor - подробнее см. в разделе Running a logging socket listener in production.

Использование ротации файлов

Иногда вы хотите позволить файлу журнала вырасти до определенного размера, а затем открыть новый файл и вести журнал в нем. Возможно, вы захотите хранить определенное количество таких файлов, а когда их будет создано столько, то чередовать их так, чтобы количество файлов и их размер оставались ограниченными. Для такой схемы использования пакет протоколирования предоставляет RotatingFileHandler:

import glob
import logging
import logging.handlers

LOG_FILENAME = 'logging_rotatingfile_example.out'

# Set up a specific logger with our desired output level
my_logger = logging.getLogger('MyLogger')
my_logger.setLevel(logging.DEBUG)

# Add the log message handler to the logger
handler = logging.handlers.RotatingFileHandler(
              LOG_FILENAME, maxBytes=20, backupCount=5)

my_logger.addHandler(handler)

# Log some messages
for i in range(20):
    my_logger.debug('i = %d' % i)

# See what files are created
logfiles = glob.glob('%s*' % LOG_FILENAME)

for filename in logfiles:
    print(filename)

В результате должно получиться 6 отдельных файлов, каждый из которых содержит часть истории журнала для данного приложения:

logging_rotatingfile_example.out
logging_rotatingfile_example.out.1
logging_rotatingfile_example.out.2
logging_rotatingfile_example.out.3
logging_rotatingfile_example.out.4
logging_rotatingfile_example.out.5

Самый актуальный файл всегда logging_rotatingfile_example.out, и каждый раз, когда он достигает предела размера, он переименовывается с суффиксом .1. Каждый из существующих резервных файлов переименовывается с увеличением суффикса (.1 становится .2 и т. д.), а файл .6 стирается.

Очевидно, что в этом примере длина журнала слишком мала. Вы должны установить maxBytes в соответствующее значение.

Использование альтернативных стилей форматирования

Когда протоколирование было добавлено в стандартную библиотеку Python, единственным способом форматирования сообщений с переменным содержимым было использование метода %-formatting. С тех пор в Python появилось два новых подхода к форматированию: string.Template (добавлен в Python 2.4) и str.format() (добавлен в Python 2.6).

Логирование (начиная с версии 3.2) обеспечивает улучшенную поддержку этих двух дополнительных стилей форматирования. Класс Formatter стал принимать дополнительный необязательный параметр ключевого слова style. По умолчанию он принимает значение '%', но возможны и другие значения: '{' и '$', которые соответствуют двум другим стилям форматирования. По умолчанию поддерживается обратная совместимость (как и следовало ожидать), но, явно указав параметр стиля, вы получаете возможность указать строки форматирования, которые работают с str.format() или string.Template. Вот пример консольной сессии, демонстрирующий возможности:

>>> import logging
>>> root = logging.getLogger()
>>> root.setLevel(logging.DEBUG)
>>> handler = logging.StreamHandler()
>>> bf = logging.Formatter('{asctime} {name} {levelname:8s} {message}',
...                        style='{')
>>> handler.setFormatter(bf)
>>> root.addHandler(handler)
>>> logger = logging.getLogger('foo.bar')
>>> logger.debug('This is a DEBUG message')
2010-10-28 15:11:55,341 foo.bar DEBUG    This is a DEBUG message
>>> logger.critical('This is a CRITICAL message')
2010-10-28 15:12:11,526 foo.bar CRITICAL This is a CRITICAL message
>>> df = logging.Formatter('$asctime $name ${levelname} $message',
...                        style='$')
>>> handler.setFormatter(df)
>>> logger.debug('This is a DEBUG message')
2010-10-28 15:13:06,924 foo.bar DEBUG This is a DEBUG message
>>> logger.critical('This is a CRITICAL message')
2010-10-28 15:13:11,494 foo.bar CRITICAL This is a CRITICAL message
>>>

Обратите внимание, что форматирование сообщений протоколирования для окончательного вывода в журналы совершенно не зависит от того, как построено отдельное сообщение протоколирования. Для этого все равно можно использовать %-форматирование, как показано здесь:

>>> logger.error('This is an%s %s %s', 'other,', 'ERROR,', 'message')
2010-10-28 15:19:29,833 foo.bar ERROR This is another, ERROR, message
>>>

Вызовы логирования (logger.debug(), logger.info() и т. д.) принимают только позиционные параметры для самого сообщения логирования, а параметры ключевых слов используются только для определения опций обработки фактического вызова логирования (например, параметр ключевого слова exc_info для указания того, что информация об обратном ходе должна быть записана в журнал, или параметр ключевого слова extra для указания дополнительной контекстной информации, которая должна быть добавлена в журнал). Таким образом, вы не можете напрямую вызывать логирование, используя синтаксис str.format() или string.Template, поскольку внутри пакета логирования используется %-форматирование для объединения строки формата и аргументов переменных. Изменить это, сохранив обратную совместимость, невозможно, поскольку все вызовы логирования, которые присутствуют в существующем коде, будут использовать строки %-формата.

Однако есть способ использовать {}- и $-форматирование для создания отдельных сообщений журнала. Вспомните, что для сообщения можно использовать произвольный объект в качестве строки формата сообщения, и что пакет протоколирования вызовет str() на этом объекте, чтобы получить фактическую строку формата. Рассмотрим следующие два класса:

class BraceMessage:
    def __init__(self, fmt, /, *args, **kwargs):
        self.fmt = fmt
        self.args = args
        self.kwargs = kwargs

    def __str__(self):
        return self.fmt.format(*self.args, **self.kwargs)

class DollarMessage:
    def __init__(self, fmt, /, **kwargs):
        self.fmt = fmt
        self.kwargs = kwargs

    def __str__(self):
        from string import Template
        return Template(self.fmt).substitute(**self.kwargs)

Любой из них может использоваться вместо строки формата, чтобы позволить {}- или $-форматированию использоваться для создания фактической части «сообщения», которая появляется в форматированном выводе журнала вместо «%(message)s» или «{message}» или «$message». Немного громоздко использовать имена классов всякий раз, когда вы хотите что-то записать в журнал, но вполне удобно, если вы используете псевдоним, например __ (двойное подчеркивание — не путать с _, одинарным подчеркиванием, используемым в качестве синонима/псевдонима для gettext.gettext() или его собратьев).

Приведенные выше классы не входят в состав Python, хотя их достаточно легко скопировать и вставить в собственный код. Их можно использовать следующим образом (при условии, что они объявлены в модуле с именем wherever):

>>> from wherever import BraceMessage as __
>>> print(__('Message with {0} {name}', 2, name='placeholders'))
Message with 2 placeholders
>>> class Point: pass
...
>>> p = Point()
>>> p.x = 0.5
>>> p.y = 0.5
>>> print(__('Message with coordinates: ({point.x:.2f}, {point.y:.2f})',
...       point=p))
Message with coordinates: (0.50, 0.50)
>>> from wherever import DollarMessage as __
>>> print(__('Message with $num $what', num=2, what='placeholders'))
Message with 2 placeholders
>>>

Хотя в приведенных выше примерах используется print(), чтобы показать, как работает форматирование, вы, конечно, будете использовать logger.debug() или что-то подобное, чтобы действительно вести журнал, используя этот подход.

Следует отметить, что при таком подходе вы не понесете значительных потерь в производительности: фактическое форматирование происходит не в момент вызова журнализации, а когда (и если) зарегистрированное сообщение действительно будет выведено обработчиком в журнал. Единственная необычная вещь, которая может вас смутить, - это то, что круглые скобки обводят строку форматирования и аргументы, а не только строку форматирования. Это потому, что обозначение __ - просто синтаксический сахар для вызова конструктора одного из классов XXXMessage.

При желании вы можете использовать LoggerAdapter, чтобы добиться эффекта, аналогичного вышеописанному, как в следующем примере:

import logging

class Message:
    def __init__(self, fmt, args):
        self.fmt = fmt
        self.args = args

    def __str__(self):
        return self.fmt.format(*self.args)

class StyleAdapter(logging.LoggerAdapter):
    def log(self, level, msg, /, *args, stacklevel=1, **kwargs):
        if self.isEnabledFor(level):
            msg, kwargs = self.process(msg, kwargs)
            self.logger.log(level, Message(msg, args), **kwargs,
                            stacklevel=stacklevel+1)

logger = StyleAdapter(logging.getLogger(__name__))

def main():
    logger.debug('Hello, {}', 'world!')

if __name__ == '__main__':
    logging.basicConfig(level=logging.DEBUG)
    main()

При выполнении скрипта на Python 3.8 или более поздней версии в журнал должно быть выведено сообщение Hello, world!.

Настройка LogRecord

Каждое событие регистрации представлено экземпляром LogRecord. Когда событие регистрируется и не отфильтровывается уровнем регистратора, создается экземпляр LogRecord, заполняется информацией о событии и затем передается обработчикам этого регистратора (и его предков, вплоть до регистратора, в котором дальнейшее распространение по иерархии отключено). До Python 3.2 было только два места, где происходило это создание:

  • Logger.makeRecord(), который вызывается в обычном процессе регистрации события. Это вызывает LogRecord непосредственно для создания экземпляра.

  • makeLogRecord(), которая вызывается со словарем, содержащим атрибуты, которые необходимо добавить в запись LogRecord. Обычно эта функция вызывается, когда по сети получен подходящий словарь (например, в виде pickle через SocketHandler или в виде JSON через HTTPHandler).

Обычно это означало, что если вам нужно сделать что-то особенное с LogRecord, вы должны были сделать одно из следующих действий.

  • Создайте свой собственный подкласс Logger, который переопределяет Logger.makeRecord(), и установите его с помощью setLoggerClass() до того, как будут инстанцированы все важные для вас логгеры.

  • Добавьте Filter к регистратору или обработчику, который выполняет необходимые специальные манипуляции, когда вызывается его метод filter().

Первый подход был бы немного громоздким в сценарии, когда (скажем) несколько разных библиотек хотят делать разные вещи. Каждая из них попыталась бы установить свой собственный подкласс Logger, и победила бы та, которая сделала это последней.

Второй подход работает достаточно хорошо для многих случаев, но не позволяет, например, использовать специализированный подкласс LogRecord. Разработчики библиотек могут установить подходящий фильтр на свои логгеры, но им придется не забывать делать это каждый раз, когда они вводят новый логгер (что можно сделать, просто добавляя новые пакеты или модули и делая

logger = logging.getLogger(__name__)

на уровне модуля). Вероятно, это слишком много вещей, о которых нужно думать. Разработчики также могли бы добавить фильтр в NullHandler, прикрепленный к их логгеру верхнего уровня, но он не будет вызываться, если разработчик приложения прикрепит обработчик к логгеру библиотеки нижнего уровня — так что вывод этого обработчика не будет отражать намерения разработчика библиотеки.

В Python 3.2 и более поздних версиях создание LogRecord происходит через фабрику, которую вы можете указать. Фабрика - это просто вызываемый объект, который можно установить с помощью setLogRecordFactory() и вызвать с помощью getLogRecordFactory(). Фабрика вызывается с той же сигнатурой, что и конструктор LogRecord, поскольку LogRecord является настройкой фабрики по умолчанию.

Такой подход позволяет пользовательской фабрике контролировать все аспекты создания LogRecord. Например, вы можете вернуть подкласс или просто добавить некоторые дополнительные атрибуты к записи после ее создания, используя шаблон, подобный этому:

old_factory = logging.getLogRecordFactory()

def record_factory(*args, **kwargs):
    record = old_factory(*args, **kwargs)
    record.custom_attribute = 0xdecafbad
    return record

logging.setLogRecordFactory(record_factory)

Этот паттерн позволяет разным библиотекам объединять фабрики в цепочки, и пока они не перезаписывают атрибуты друг друга или непреднамеренно не переписывают атрибуты, предоставляемые в стандартном виде, никаких сюрпризов быть не должно. Однако следует помнить, что каждое звено в цепочке добавляет накладные расходы во время выполнения всех операций протоколирования, и эту технику следует использовать только в тех случаях, когда использование Filter не дает желаемого результата.

Подклассификация QueueHandler и QueueListener - пример ZeroMQ

Подкласс QueueHandler

Вы можете использовать подкласс QueueHandler для отправки сообщений в другие виды очередей, например, в сокет ZeroMQ „publish“. В примере ниже сокет создается отдельно и передается в обработчик (как его «очередь»):

import zmq   # using pyzmq, the Python binding for ZeroMQ
import json  # for serializing records portably

ctx = zmq.Context()
sock = zmq.Socket(ctx, zmq.PUB)  # or zmq.PUSH, or other suitable value
sock.bind('tcp://*:5556')        # or wherever

class ZeroMQSocketHandler(QueueHandler):
    def enqueue(self, record):
        self.queue.send_json(record.__dict__)


handler = ZeroMQSocketHandler(sock)

Конечно, есть и другие способы организовать это, например, передать данные, необходимые обработчику для создания сокета:

class ZeroMQSocketHandler(QueueHandler):
    def __init__(self, uri, socktype=zmq.PUB, ctx=None):
        self.ctx = ctx or zmq.Context()
        socket = zmq.Socket(self.ctx, socktype)
        socket.bind(uri)
        super().__init__(socket)

    def enqueue(self, record):
        self.queue.send_json(record.__dict__)

    def close(self):
        self.queue.close()

Подкласс QueueListener

Вы также можете подклассифицировать QueueListener, чтобы получать сообщения из других видов очередей, например, из ZeroMQ „subscribe“ socket. Вот пример:

class ZeroMQSocketListener(QueueListener):
    def __init__(self, uri, /, *handlers, **kwargs):
        self.ctx = kwargs.get('ctx') or zmq.Context()
        socket = zmq.Socket(self.ctx, zmq.SUB)
        socket.setsockopt_string(zmq.SUBSCRIBE, '')  # subscribe to everything
        socket.connect(uri)
        super().__init__(socket, *handlers, **kwargs)

    def dequeue(self):
        msg = self.queue.recv_json()
        return logging.makeLogRecord(msg)

Подклассификация QueueHandler и QueueListener - пример pynng

По аналогии с приведенным выше разделом мы можем реализовать слушателя и обработчик с помощью pynng, который является привязкой на Python к NNG, называемому духовным наследником ZeroMQ. Следующие фрагменты иллюстрируют - вы можете протестировать их в среде, в которой установлен pynng. Для разнообразия мы сначала представим слушателя.

Подкласс QueueListener

# listener.py
import json
import logging
import logging.handlers

import pynng

DEFAULT_ADDR = "tcp://localhost:13232"

interrupted = False

class NNGSocketListener(logging.handlers.QueueListener):

    def __init__(self, uri, /, *handlers, **kwargs):
        # Have a timeout for interruptability, and open a
        # subscriber socket
        socket = pynng.Sub0(listen=uri, recv_timeout=500)
        # The b'' subscription matches all topics
        topics = kwargs.pop('topics', None) or b''
        socket.subscribe(topics)
        # We treat the socket as a queue
        super().__init__(socket, *handlers, **kwargs)

    def dequeue(self, block):
        data = None
        # Keep looping while not interrupted and no data received over the
        # socket
        while not interrupted:
            try:
                data = self.queue.recv(block=block)
                break
            except pynng.Timeout:
                pass
            except pynng.Closed:  # sometimes happens when you hit Ctrl-C
                break
        if data is None:
            return None
        # Get the logging event sent from a publisher
        event = json.loads(data.decode('utf-8'))
        return logging.makeLogRecord(event)

    def enqueue_sentinel(self):
        # Not used in this implementation, as the socket isn't really a
        # queue
        pass

logging.getLogger('pynng').propagate = False
listener = NNGSocketListener(DEFAULT_ADDR, logging.StreamHandler(), topics=b'')
listener.start()
print('Press Ctrl-C to stop.')
try:
    while True:
        pass
except KeyboardInterrupt:
    interrupted = True
finally:
    listener.stop()

Подкласс QueueHandler

# sender.py
import json
import logging
import logging.handlers
import time
import random

import pynng

DEFAULT_ADDR = "tcp://localhost:13232"

class NNGSocketHandler(logging.handlers.QueueHandler):

    def __init__(self, uri):
        socket = pynng.Pub0(dial=uri, send_timeout=500)
        super().__init__(socket)

    def enqueue(self, record):
        # Send the record as UTF-8 encoded JSON
        d = dict(record.__dict__)
        data = json.dumps(d)
        self.queue.send(data.encode('utf-8'))

    def close(self):
        self.queue.close()

logging.getLogger('pynng').propagate = False
handler = NNGSocketHandler(DEFAULT_ADDR)
# Make sure the process ID is in the output
logging.basicConfig(level=logging.DEBUG,
                    handlers=[logging.StreamHandler(), handler],
                    format='%(levelname)-8s %(name)10s %(process)6s %(message)s')
levels = (logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
          logging.CRITICAL)
logger_names = ('myapp', 'myapp.lib1', 'myapp.lib2')
msgno = 1
while True:
    # Just randomly select some loggers and levels and log away
    level = random.choice(levels)
    logger = logging.getLogger(random.choice(logger_names))
    logger.log(level, 'Message no. %5d' % msgno)
    msgno += 1
    delay = random.random() * 2 + 0.5
    time.sleep(delay)

Вы можете запустить два приведенных выше фрагмента в разных командных оболочках. Если мы запустим слушателя в одной оболочке, а отправителя - в двух отдельных оболочках, мы увидим нечто похожее на следующее. В первой оболочке отправителя:

$ python sender.py
DEBUG         myapp    613 Message no.     1
WARNING  myapp.lib2    613 Message no.     2
CRITICAL myapp.lib2    613 Message no.     3
WARNING  myapp.lib2    613 Message no.     4
CRITICAL myapp.lib1    613 Message no.     5
DEBUG         myapp    613 Message no.     6
CRITICAL myapp.lib1    613 Message no.     7
INFO     myapp.lib1    613 Message no.     8
(and so on)

Во второй оболочке отправителя:

$ python sender.py
INFO     myapp.lib2    657 Message no.     1
CRITICAL myapp.lib2    657 Message no.     2
CRITICAL      myapp    657 Message no.     3
CRITICAL myapp.lib1    657 Message no.     4
INFO     myapp.lib1    657 Message no.     5
WARNING  myapp.lib2    657 Message no.     6
CRITICAL      myapp    657 Message no.     7
DEBUG    myapp.lib1    657 Message no.     8
(and so on)

В оболочке слушателя:

$ python listener.py
Press Ctrl-C to stop.
DEBUG         myapp    613 Message no.     1
WARNING  myapp.lib2    613 Message no.     2
INFO     myapp.lib2    657 Message no.     1
CRITICAL myapp.lib2    613 Message no.     3
CRITICAL myapp.lib2    657 Message no.     2
CRITICAL      myapp    657 Message no.     3
WARNING  myapp.lib2    613 Message no.     4
CRITICAL myapp.lib1    613 Message no.     5
CRITICAL myapp.lib1    657 Message no.     4
INFO     myapp.lib1    657 Message no.     5
DEBUG         myapp    613 Message no.     6
WARNING  myapp.lib2    657 Message no.     6
CRITICAL      myapp    657 Message no.     7
CRITICAL myapp.lib1    613 Message no.     7
INFO     myapp.lib1    613 Message no.     8
DEBUG    myapp.lib1    657 Message no.     8
(and so on)

Как видите, логи двух процессов-отправителей чередуются в выводе слушателя.

Пример конфигурации на основе словаря

Ниже приведен пример словаря конфигурации протоколирования - он взят из documentation on the Django project. Этот словарь передается в dictConfig() для введения конфигурации в действие:

LOGGING = {
    'version': 1,
    'disable_existing_loggers': False,
    'formatters': {
        'verbose': {
            'format': '{levelname} {asctime} {module} {process:d} {thread:d} {message}',
            'style': '{',
        },
        'simple': {
            'format': '{levelname} {message}',
            'style': '{',
        },
    },
    'filters': {
        'special': {
            '()': 'project.logging.SpecialFilter',
            'foo': 'bar',
        },
    },
    'handlers': {
        'console': {
            'level': 'INFO',
            'class': 'logging.StreamHandler',
            'formatter': 'simple',
        },
        'mail_admins': {
            'level': 'ERROR',
            'class': 'django.utils.log.AdminEmailHandler',
            'filters': ['special']
        }
    },
    'loggers': {
        'django': {
            'handlers': ['console'],
            'propagate': True,
        },
        'django.request': {
            'handlers': ['mail_admins'],
            'level': 'ERROR',
            'propagate': False,
        },
        'myproject.custom': {
            'handlers': ['console', 'mail_admins'],
            'level': 'INFO',
            'filters': ['special']
        }
    }
}

Более подробную информацию об этой конфигурации вы можете найти в relevant section документации Django.

Использование ротатора и именователя для настройки обработки ротации журнала

Пример того, как можно определить namer и rotator, приведен в следующем запускаемом скрипте, который показывает gzip-сжатие файла журнала:

import gzip
import logging
import logging.handlers
import os
import shutil

def namer(name):
    return name + ".gz"

def rotator(source, dest):
    with open(source, 'rb') as f_in:
        with gzip.open(dest, 'wb') as f_out:
            shutil.copyfileobj(f_in, f_out)
    os.remove(source)


rh = logging.handlers.RotatingFileHandler('rotated.log', maxBytes=128, backupCount=5)
rh.rotator = rotator
rh.namer = namer

root = logging.getLogger()
root.setLevel(logging.INFO)
root.addHandler(rh)
f = logging.Formatter('%(asctime)s %(message)s')
rh.setFormatter(f)
for i in range(1000):
    root.info(f'Message no. {i + 1}')

После запуска вы увидите шесть новых файлов, пять из которых сжаты:

$ ls rotated.log*
rotated.log       rotated.log.2.gz  rotated.log.4.gz
rotated.log.1.gz  rotated.log.3.gz  rotated.log.5.gz
$ zcat rotated.log.1.gz
2023-01-20 02:28:17,767 Message no. 996
2023-01-20 02:28:17,767 Message no. 997
2023-01-20 02:28:17,767 Message no. 998

Более сложный пример многопроцессорной обработки

Следующий рабочий пример показывает, как можно использовать протоколирование при многопроцессорной обработке с помощью файлов конфигурации. Конфигурации довольно просты, но служат для иллюстрации того, как более сложные конфигурации могут быть реализованы в реальном сценарии многопроцессорной обработки.

В примере главный процесс порождает процесс-слушатель и несколько рабочих процессов. Каждый из главных процессов, слушатель и рабочие имеют три отдельные конфигурации (рабочие используют одну и ту же конфигурацию). Мы видим, как главный процесс ведет журнал, как рабочие ведут журнал на QueueHandler, а слушатель реализует QueueListener и более сложную конфигурацию журнала, а также организует отправку событий, полученных через очередь, на обработчики, указанные в конфигурации. Обратите внимание, что эти конфигурации являются чисто иллюстративными, но вы должны быть в состоянии адаптировать этот пример к своему собственному сценарию.

Вот скрипт - документация и комментарии, надеюсь, объяснят, как он работает:

import logging
import logging.config
import logging.handlers
from multiprocessing import Process, Queue, Event, current_process
import os
import random
import time

class MyHandler:
    """
    A simple handler for logging events. It runs in the listener process and
    dispatches events to loggers based on the name in the received record,
    which then get dispatched, by the logging system, to the handlers
    configured for those loggers.
    """

    def handle(self, record):
        if record.name == "root":
            logger = logging.getLogger()
        else:
            logger = logging.getLogger(record.name)

        if logger.isEnabledFor(record.levelno):
            # The process name is transformed just to show that it's the listener
            # doing the logging to files and console
            record.processName = '%s (for %s)' % (current_process().name, record.processName)
            logger.handle(record)

def listener_process(q, stop_event, config):
    """
    This could be done in the main process, but is just done in a separate
    process for illustrative purposes.

    This initialises logging according to the specified configuration,
    starts the listener and waits for the main process to signal completion
    via the event. The listener is then stopped, and the process exits.
    """
    logging.config.dictConfig(config)
    listener = logging.handlers.QueueListener(q, MyHandler())
    listener.start()
    if os.name == 'posix':
        # On POSIX, the setup logger will have been configured in the
        # parent process, but should have been disabled following the
        # dictConfig call.
        # On Windows, since fork isn't used, the setup logger won't
        # exist in the child, so it would be created and the message
        # would appear - hence the "if posix" clause.
        logger = logging.getLogger('setup')
        logger.critical('Should not appear, because of disabled logger ...')
    stop_event.wait()
    listener.stop()

def worker_process(config):
    """
    A number of these are spawned for the purpose of illustration. In
    practice, they could be a heterogeneous bunch of processes rather than
    ones which are identical to each other.

    This initialises logging according to the specified configuration,
    and logs a hundred messages with random levels to randomly selected
    loggers.

    A small sleep is added to allow other processes a chance to run. This
    is not strictly needed, but it mixes the output from the different
    processes a bit more than if it's left out.
    """
    logging.config.dictConfig(config)
    levels = [logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
              logging.CRITICAL]
    loggers = ['foo', 'foo.bar', 'foo.bar.baz',
               'spam', 'spam.ham', 'spam.ham.eggs']
    if os.name == 'posix':
        # On POSIX, the setup logger will have been configured in the
        # parent process, but should have been disabled following the
        # dictConfig call.
        # On Windows, since fork isn't used, the setup logger won't
        # exist in the child, so it would be created and the message
        # would appear - hence the "if posix" clause.
        logger = logging.getLogger('setup')
        logger.critical('Should not appear, because of disabled logger ...')
    for i in range(100):
        lvl = random.choice(levels)
        logger = logging.getLogger(random.choice(loggers))
        logger.log(lvl, 'Message no. %d', i)
        time.sleep(0.01)

def main():
    q = Queue()
    # The main process gets a simple configuration which prints to the console.
    config_initial = {
        'version': 1,
        'handlers': {
            'console': {
                'class': 'logging.StreamHandler',
                'level': 'INFO'
            }
        },
        'root': {
            'handlers': ['console'],
            'level': 'DEBUG'
        }
    }
    # The worker process configuration is just a QueueHandler attached to the
    # root logger, which allows all messages to be sent to the queue.
    # We disable existing loggers to disable the "setup" logger used in the
    # parent process. This is needed on POSIX because the logger will
    # be there in the child following a fork().
    config_worker = {
        'version': 1,
        'disable_existing_loggers': True,
        'handlers': {
            'queue': {
                'class': 'logging.handlers.QueueHandler',
                'queue': q
            }
        },
        'root': {
            'handlers': ['queue'],
            'level': 'DEBUG'
        }
    }
    # The listener process configuration shows that the full flexibility of
    # logging configuration is available to dispatch events to handlers however
    # you want.
    # We disable existing loggers to disable the "setup" logger used in the
    # parent process. This is needed on POSIX because the logger will
    # be there in the child following a fork().
    config_listener = {
        'version': 1,
        'disable_existing_loggers': True,
        'formatters': {
            'detailed': {
                'class': 'logging.Formatter',
                'format': '%(asctime)s %(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
            },
            'simple': {
                'class': 'logging.Formatter',
                'format': '%(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
            }
        },
        'handlers': {
            'console': {
                'class': 'logging.StreamHandler',
                'formatter': 'simple',
                'level': 'INFO'
            },
            'file': {
                'class': 'logging.FileHandler',
                'filename': 'mplog.log',
                'mode': 'w',
                'formatter': 'detailed'
            },
            'foofile': {
                'class': 'logging.FileHandler',
                'filename': 'mplog-foo.log',
                'mode': 'w',
                'formatter': 'detailed'
            },
            'errors': {
                'class': 'logging.FileHandler',
                'filename': 'mplog-errors.log',
                'mode': 'w',
                'formatter': 'detailed',
                'level': 'ERROR'
            }
        },
        'loggers': {
            'foo': {
                'handlers': ['foofile']
            }
        },
        'root': {
            'handlers': ['console', 'file', 'errors'],
            'level': 'DEBUG'
        }
    }
    # Log some initial events, just to show that logging in the parent works
    # normally.
    logging.config.dictConfig(config_initial)
    logger = logging.getLogger('setup')
    logger.info('About to create workers ...')
    workers = []
    for i in range(5):
        wp = Process(target=worker_process, name='worker %d' % (i + 1),
                     args=(config_worker,))
        workers.append(wp)
        wp.start()
        logger.info('Started worker: %s', wp.name)
    logger.info('About to create listener ...')
    stop_event = Event()
    lp = Process(target=listener_process, name='listener',
                 args=(q, stop_event, config_listener))
    lp.start()
    logger.info('Started listener')
    # We now hang around for the workers to finish their work.
    for wp in workers:
        wp.join()
    # Workers all done, listening can now stop.
    # Logging in the parent still works normally.
    logger.info('Telling listener to stop ...')
    stop_event.set()
    lp.join()
    logger.info('All done.')

if __name__ == '__main__':
    main()

Вставка BOM в сообщения, отправляемые SysLogHandler

RFC 5424 требует, чтобы сообщение Unicode отправлялось демону syslog в виде набора байтов, имеющих следующую структуру: необязательный компонент чистого ASCII, затем метка порядка байтов (BOM) UTF-8, затем Unicode, закодированный с помощью UTF-8. (См. relevant section of the specification).

В Python 3.1 в SysLogHandler был добавлен код для вставки BOM в сообщение, но, к сожалению, он был реализован некорректно: BOM появлялся в начале сообщения и, следовательно, не позволял ни одному компоненту чистого ASCII появляться перед ним.

Поскольку такое поведение нарушено, код некорректной вставки BOM удаляется из Python 3.2.4 и более поздних версий. Однако он не заменен, и если вы хотите создавать RFC 5424-совместимые сообщения, включающие BOM, необязательную последовательность чистого ASCII перед ним и произвольный Юникод после него, закодированные с использованием UTF-8, то вам нужно сделать следующее:

  1. Прикрепите экземпляр Formatter к экземпляру SysLogHandler, используя строку формата, например:

    'ASCII section\ufeffUnicode section'
    

    Кодовая точка Юникода U+FEFF при кодировании с помощью UTF-8 будет закодирована как UTF-8 BOM - байт-строка b'\xef\xbb\xbf'.

  2. Замените секцию ASCII любыми удобными для вас местоположениями, но убедитесь, что данные, которые появятся в ней после замены, всегда будут ASCII (так они останутся неизменными после кодирования UTF-8).

  3. Замените секцию Unicode любыми прописными буквами; если данные, которые появятся в ней после замены, будут содержать символы, выходящие за пределы диапазона ASCII, это не страшно - они будут закодированы с помощью UTF-8.

Отформатированное сообщение будет закодировано с использованием кодировки UTF-8 по SysLogHandler. Если вы следуете приведенным выше правилам, вы должны быть в состоянии создавать сообщения, соответствующие RFC 5424. Если вы этого не сделаете, журнал может не жаловаться, но ваши сообщения не будут соответствовать RFC 5424, и ваш демон syslog может пожаловаться.

Реализация структурированного протоколирования

Хотя большинство сообщений журнала предназначены для чтения человеком и, следовательно, не поддаются машинному разбору, могут возникнуть обстоятельства, когда вы захотите выводить сообщения в структурированном формате, который сможет быть разобран программой (без необходимости использования сложных регулярных выражений для разбора сообщения журнала). Этого легко добиться с помощью пакета logging. Существует несколько способов, которыми это может быть достигнуто, но ниже приведен простой подход, который использует JSON для сериализации события в пригодном для машинного разбора виде:

import json
import logging

class StructuredMessage:
    def __init__(self, message, /, **kwargs):
        self.message = message
        self.kwargs = kwargs

    def __str__(self):
        return '%s >>> %s' % (self.message, json.dumps(self.kwargs))

_ = StructuredMessage   # optional, to improve readability

logging.basicConfig(level=logging.INFO, format='%(message)s')
logging.info(_('message 1', foo='bar', bar='baz', num=123, fnum=123.456))

Если запустить приведенный выше скрипт, он выведет:

message 1 >>> {"fnum": 123.456, "num": 123, "bar": "baz", "foo": "bar"}

Обратите внимание, что порядок элементов может отличаться в зависимости от используемой версии Python.

Если вам нужна более специализированная обработка, вы можете использовать собственный кодировщик JSON, как в следующем примере:

import json
import logging


class Encoder(json.JSONEncoder):
    def default(self, o):
        if isinstance(o, set):
            return tuple(o)
        elif isinstance(o, str):
            return o.encode('unicode_escape').decode('ascii')
        return super().default(o)

class StructuredMessage:
    def __init__(self, message, /, **kwargs):
        self.message = message
        self.kwargs = kwargs

    def __str__(self):
        s = Encoder().encode(self.kwargs)
        return '%s >>> %s' % (self.message, s)

_ = StructuredMessage   # optional, to improve readability

def main():
    logging.basicConfig(level=logging.INFO, format='%(message)s')
    logging.info(_('message 1', set_value={1, 2, 3}, snowman='\u2603'))

if __name__ == '__main__':
    main()

При запуске вышеприведенного скрипта он выводит:

message 1 >>> {"snowman": "\u2603", "set_value": [1, 2, 3]}

Обратите внимание, что порядок элементов может отличаться в зависимости от используемой версии Python.

Настройка обработчиков с помощью dictConfig()

Бывают случаи, когда вы хотите настроить обработчики журналов особым образом, и если вы используете dictConfig(), то сможете сделать это без подклассов. В качестве примера рассмотрим, что вы можете захотеть установить права собственности на файл журнала. На POSIX это легко сделать с помощью shutil.chown(), но файловые обработчики в stdlib не имеют встроенной поддержки. Вы можете настроить создание обработчика с помощью простой функции, такой как:

def owned_file_handler(filename, mode='a', encoding=None, owner=None):
    if owner:
        if not os.path.exists(filename):
            open(filename, 'a').close()
        shutil.chown(filename, *owner)
    return logging.FileHandler(filename, mode, encoding)

Затем вы можете указать в конфигурации протоколирования, переданной в dictConfig(), что обработчик протоколирования должен быть создан путем вызова этой функции:

LOGGING = {
    'version': 1,
    'disable_existing_loggers': False,
    'formatters': {
        'default': {
            'format': '%(asctime)s %(levelname)s %(name)s %(message)s'
        },
    },
    'handlers': {
        'file':{
            # The values below are popped from this dictionary and
            # used to create the handler, set the handler's level and
            # its formatter.
            '()': owned_file_handler,
            'level':'DEBUG',
            'formatter': 'default',
            # The values below are passed to the handler creator callable
            # as keyword arguments.
            'owner': ['pulse', 'pulse'],
            'filename': 'chowntest.log',
            'mode': 'w',
            'encoding': 'utf-8',
        },
    },
    'root': {
        'handlers': ['file'],
        'level': 'DEBUG',
    },
}

В этом примере я устанавливаю права собственности, используя пользователя и группу pulse, просто для наглядности. Собрав все это в рабочий сценарий, chowntest.py:

import logging, logging.config, os, shutil

def owned_file_handler(filename, mode='a', encoding=None, owner=None):
    if owner:
        if not os.path.exists(filename):
            open(filename, 'a').close()
        shutil.chown(filename, *owner)
    return logging.FileHandler(filename, mode, encoding)

LOGGING = {
    'version': 1,
    'disable_existing_loggers': False,
    'formatters': {
        'default': {
            'format': '%(asctime)s %(levelname)s %(name)s %(message)s'
        },
    },
    'handlers': {
        'file':{
            # The values below are popped from this dictionary and
            # used to create the handler, set the handler's level and
            # its formatter.
            '()': owned_file_handler,
            'level':'DEBUG',
            'formatter': 'default',
            # The values below are passed to the handler creator callable
            # as keyword arguments.
            'owner': ['pulse', 'pulse'],
            'filename': 'chowntest.log',
            'mode': 'w',
            'encoding': 'utf-8',
        },
    },
    'root': {
        'handlers': ['file'],
        'level': 'DEBUG',
    },
}

logging.config.dictConfig(LOGGING)
logger = logging.getLogger('mylogger')
logger.debug('A debug message')

Чтобы запустить его, вам, вероятно, придется работать от имени root:

$ sudo python3.3 chowntest.py
$ cat chowntest.log
2013-11-05 09:34:51,128 DEBUG mylogger A debug message
$ ls -l chowntest.log
-rw-r--r-- 1 pulse pulse 55 2013-11-05 09:34 chowntest.log

Обратите внимание, что в этом примере используется Python 3.3, потому что именно в нем появляется shutil.chown(). Этот подход должен работать с любой версией Python, поддерживающей dictConfig(). - а именно, Python 2.7, 3.2 или более поздней. В версиях до 3.3 вам придется реализовать фактическую смену владельца, используя, например, os.chown().

На практике функция создания обработчика может находиться в служебном модуле где-нибудь в вашем проекте. Вместо строки в конфигурации:

'()': owned_file_handler,

вы можете использовать, например:

'()': 'ext://project.util.owned_file_handler',

где project.util можно заменить на фактическое имя пакета, в котором находится функция. В приведенном выше рабочем сценарии использование 'ext://__main__.owned_file_handler' должно сработать. Здесь фактический вызываемый объект определяется dictConfig() из спецификации ext://.

Этот пример, надеюсь, также указывает на то, как можно реализовать другие типы изменения файлов - например, установку определенных битов разрешения POSIX - таким же образом, используя os.chmod().

Конечно, этот подход можно распространить и на другие типы обработчиков, кроме FileHandler. - например, один из вращающихся обработчиков файлов или вообще другой тип обработчика.

Использование определенных стилей форматирования во всем приложении

В Python 3.2 у Formatter появился параметр style, который, хотя по умолчанию используется % для обратной совместимости, позволяет указать { или $ для поддержки подходов к форматированию, поддерживаемых str.format() и string.Template. Обратите внимание, что этот параметр регулирует форматирование сообщений регистрации для окончательного вывода в журналы и полностью ортогонален тому, как строится отдельное сообщение регистрации.

Вызовы логирования (debug(), info() и т. д.) принимают только позиционные параметры для самого сообщения логирования, а параметры ключевых слов используются только для определения опций обработки вызова логирования (например, параметр ключевого слова exc_info для указания того, что информация об обратном ходе должна быть записана в журнал, или параметр ключевого слова extra для указания дополнительной контекстной информации, которая должна быть добавлена в журнал). Таким образом, вы не можете напрямую вызывать логирование, используя синтаксис str.format() или string.Template, поскольку внутри пакета логирования используется %-форматирование для объединения строки формата и аргументов переменных. Изменить это, сохранив обратную совместимость, невозможно, поскольку все вызовы логирования, которые присутствуют в существующем коде, будут использовать строки %-формата.

Были предложения связать стили форматирования с конкретными логгерами, но такой подход также сталкивается с проблемами обратной совместимости, поскольку любой существующий код может использовать данное имя логгера и применять %-форматирование.

Чтобы ведение журнала было совместимым между сторонними библиотеками и вашим кодом, решения о форматировании должны приниматься на уровне отдельного вызова журнала. Это открывает несколько возможностей для использования альтернативных стилей форматирования.

Использование фабрик LogRecord

В Python 3.2, наряду с упомянутыми выше изменениями Formatter, пакет logging получил возможность задавать собственные подклассы LogRecord с помощью функции setLogRecordFactory(). Вы можете использовать ее для создания собственного подкласса LogRecord, который делает «правильную вещь», переопределяя метод getMessage(). В реализации этого метода в базовом классе происходит форматирование msg % args, и вы можете подставить свое альтернативное форматирование; однако следует позаботиться о поддержке всех стилей форматирования и разрешить %-форматирование по умолчанию, чтобы обеспечить совместимость с другим кодом. Также следует позаботиться о вызове str(self.msg), как это сделано в базовой реализации.

Дополнительные сведения см. в справочной документации по setLogRecordFactory() и LogRecord.

Использование пользовательских объектов сообщений

Существует и другой, возможно, более простой способ использования {}- и $-форматирования для построения отдельных сообщений журнала. Возможно, вы помните (из Использование произвольных объектов в качестве сообщений), что при ведении журнала вы можете использовать произвольный объект в качестве строки формата сообщения, и что пакет ведения журнала будет вызывать str() на этом объекте, чтобы получить фактическую строку формата. Рассмотрим следующие два класса:

class BraceMessage:
    def __init__(self, fmt, /, *args, **kwargs):
        self.fmt = fmt
        self.args = args
        self.kwargs = kwargs

    def __str__(self):
        return self.fmt.format(*self.args, **self.kwargs)

class DollarMessage:
    def __init__(self, fmt, /, **kwargs):
        self.fmt = fmt
        self.kwargs = kwargs

    def __str__(self):
        from string import Template
        return Template(self.fmt).substitute(**self.kwargs)

Любой из них может использоваться вместо строки формата, чтобы позволить {}- или $-форматированию использоваться для создания фактической части «message», которая появляется в форматированном выводе журнала вместо «%(message)s» или «{message}» или «$message». Если вам кажется немного громоздким использовать имена классов каждый раз, когда вы хотите записать что-то в журнал, вы можете сделать это более удобным, если будете использовать псевдоним, например M или _ для сообщения (или, возможно, __, если вы используете _ для локализации).

Примеры такого подхода приведены ниже. Во-первых, форматирование с помощью str.format():

>>> __ = BraceMessage
>>> print(__('Message with {0} {1}', 2, 'placeholders'))
Message with 2 placeholders
>>> class Point: pass
...
>>> p = Point()
>>> p.x = 0.5
>>> p.y = 0.5
>>> print(__('Message with coordinates: ({point.x:.2f}, {point.y:.2f})', point=p))
Message with coordinates: (0.50, 0.50)

Во-вторых, форматирование с помощью string.Template:

>>> __ = DollarMessage
>>> print(__('Message with $num $what', num=2, what='placeholders'))
Message with 2 placeholders
>>>

Следует отметить, что при таком подходе вы не понесете значительных потерь в производительности: фактическое форматирование происходит не в момент вызова журнализации, а когда (и если) зарегистрированное сообщение действительно будет выведено обработчиком в журнал. Единственная необычная вещь, которая может вас смутить, - это то, что круглые скобки обводят строку форматирования и аргументы, а не только строку форматирования. Это потому, что обозначение __ - просто синтаксический сахар для вызова конструктора одного из классов XXXMessage, показанных выше.

Настройка фильтров с dictConfig()

Вы можете настроить фильтры с помощью dictConfig(), хотя с первого взгляда может быть неочевидно, как это сделать (отсюда и этот рецепт). Поскольку Filter - единственный класс фильтра, включенный в стандартную библиотеку, и он вряд ли удовлетворит многие требования (он там только как базовый класс), вам обычно нужно определить свой собственный подкласс Filter с переопределенным методом filter(). Для этого укажите ключ () в словаре конфигурации для фильтра, указав вызываемый объект, который будет использоваться для создания фильтра (класс является наиболее очевидным, но вы можете предоставить любой вызываемый объект, который возвращает экземпляр Filter). Вот полный пример:

import logging
import logging.config
import sys

class MyFilter(logging.Filter):
    def __init__(self, param=None):
        self.param = param

    def filter(self, record):
        if self.param is None:
            allow = True
        else:
            allow = self.param not in record.msg
        if allow:
            record.msg = 'changed: ' + record.msg
        return allow

LOGGING = {
    'version': 1,
    'filters': {
        'myfilter': {
            '()': MyFilter,
            'param': 'noshow',
        }
    },
    'handlers': {
        'console': {
            'class': 'logging.StreamHandler',
            'filters': ['myfilter']
        }
    },
    'root': {
        'level': 'DEBUG',
        'handlers': ['console']
    },
}

if __name__ == '__main__':
    logging.config.dictConfig(LOGGING)
    logging.debug('hello')
    logging.debug('hello - noshow')

Этот пример показывает, как можно передать данные конфигурации в вызываемый модуль, который конструирует экземпляр, в виде параметров ключевых слов. При выполнении приведенный выше скрипт выведет:

changed: hello

что показывает, что фильтр работает в соответствии с настройками.

Следует отметить несколько дополнительных моментов:

  • Если вы не можете ссылаться на вызываемый модуль непосредственно в конфигурации (например, если он находится в другом модуле, и вы не можете импортировать его прямо в словарь конфигурации), вы можете использовать форму ext://..., как описано в Доступ к внешним объектам. Например, в приведенном выше примере вместо MyFilter можно было бы использовать текст 'ext://__main__.MyFilter'.

  • Помимо фильтров, эту технику можно использовать для настройки пользовательских обработчиков и форматеров. Дополнительные сведения о том, как логирование поддерживает использование пользовательских объектов в своей конфигурации, см. в Объекты, определяемые пользователем, а также в другом рецепте книги рецептов Настройка обработчиков с помощью dictConfig() выше.

Настраиваемое форматирование исключений

Бывают случаи, когда вам нужно сделать индивидуальное форматирование исключений - допустим, вы хотите, чтобы на каждое зарегистрированное событие приходилось ровно одна строка, даже если информация об исключении присутствует. Это можно сделать с помощью пользовательского класса форматирования, как показано в следующем примере:

import logging

class OneLineExceptionFormatter(logging.Formatter):
    def formatException(self, exc_info):
        """
        Format an exception so that it prints on a single line.
        """
        result = super().formatException(exc_info)
        return repr(result)  # or format into one line however you want to

    def format(self, record):
        s = super().format(record)
        if record.exc_text:
            s = s.replace('\n', '') + '|'
        return s

def configure_logging():
    fh = logging.FileHandler('output.txt', 'w')
    f = OneLineExceptionFormatter('%(asctime)s|%(levelname)s|%(message)s|',
                                  '%d/%m/%Y %H:%M:%S')
    fh.setFormatter(f)
    root = logging.getLogger()
    root.setLevel(logging.DEBUG)
    root.addHandler(fh)

def main():
    configure_logging()
    logging.info('Sample message')
    try:
        x = 1 / 0
    except ZeroDivisionError as e:
        logging.exception('ZeroDivisionError: %s', e)

if __name__ == '__main__':
    main()

При запуске создается файл, содержащий ровно две строки:

28/01/2015 07:21:23|INFO|Sample message|
28/01/2015 07:21:23|ERROR|ZeroDivisionError: integer division or modulo by zero|'Traceback (most recent call last):\n  File "logtest7.py", line 30, in main\n    x = 1 / 0\nZeroDivisionError: integer division or modulo by zero'|

Хотя приведенная выше обработка является упрощенной, она показывает, как можно отформатировать информацию об исключениях по своему усмотрению. Модуль traceback может быть полезен для более специализированных нужд.

Высказывание сообщений журнала

Бывают ситуации, когда сообщения журнала желательно выводить не в видимом, а в слышимом формате. Это легко сделать, если в вашей системе есть функция преобразования текста в речь (TTS), даже если она не имеет привязки к Python. Большинство систем TTS имеют программу командной строки, которую можно запустить, и ее можно вызвать из обработчика с помощью subprocess. Здесь предполагается, что программы командной строки TTS не будут взаимодействовать с пользователями или требовать много времени для завершения, и что частота регистрируемых сообщений не будет настолько высокой, чтобы завалить пользователя сообщениями, и что допустимо, чтобы сообщения произносились по одному за раз, а не одновременно. В приведенном ниже примере реализации ожидается произнесение одного сообщения перед обработкой следующего, и это может заставить другие обработчики ждать. Вот короткий пример, демонстрирующий этот подход, который предполагает, что пакет espeak доступен пакет TTS:

import logging
import subprocess
import sys

class TTSHandler(logging.Handler):
    def emit(self, record):
        msg = self.format(record)
        # Speak slowly in a female English voice
        cmd = ['espeak', '-s150', '-ven+f3', msg]
        p = subprocess.Popen(cmd, stdout=subprocess.PIPE,
                             stderr=subprocess.STDOUT)
        # wait for the program to finish
        p.communicate()

def configure_logging():
    h = TTSHandler()
    root = logging.getLogger()
    root.addHandler(h)
    # the default formatter just returns the message
    root.setLevel(logging.DEBUG)

def main():
    logging.info('Hello')
    logging.debug('Goodbye')

if __name__ == '__main__':
    configure_logging()
    sys.exit(main())

При запуске этот скрипт должен произнести женским голосом «Привет», а затем «До свидания».

Разумеется, описанный выше подход может быть адаптирован к другим системам TTS и даже к другим системам, которые могут обрабатывать сообщения с помощью внешних программ, запускаемых из командной строки.

Буферизация сообщений журнала и их условный вывод

Могут возникнуть ситуации, когда вы хотите записывать сообщения во временную область и выводить их только при наступлении определенного условия. Например, вы можете начать регистрировать отладочные события в функции, и если функция завершится без ошибок, вы не захотите загромождать журнал собранной отладочной информацией, но если произойдет ошибка, вы захотите вывести всю отладочную информацию, а также ошибку.

Вот пример, который показывает, как это можно сделать, используя декоратор для функций, в которых логирование должно вести себя подобным образом. В нем используется logging.handlers.MemoryHandler, который позволяет буферизировать регистрируемые события до наступления некоторого условия, после чего буферизированные события flushed - передаются другому обработчику (обработчику target) для обработки. По умолчанию MemoryHandler смывается, когда его буфер заполняется или происходит событие, уровень которого больше или равен заданному порогу. Вы можете использовать этот рецепт с более специализированным подклассом MemoryHandler, если вам нужно пользовательское поведение смыва.

В примере сценария есть простая функция foo, которая просто перебирает все уровни логирования, пишет в sys.stderr сообщение о том, на каком уровне будет вестись логирование, а затем действительно регистрирует сообщение на этом уровне. Вы можете передать параметр в foo, который, если равен true, будет вести журнал на уровнях ERROR и CRITICAL - в противном случае он будет вести журнал только на уровнях DEBUG, INFO и WARNING.

Скрипт просто украшает foo декоратором, который выполняет требуемое условное протоколирование. Декоратор принимает логгер в качестве параметра и прикрепляет обработчик памяти на время вызова декорированной функции. Декоратор может быть дополнительно параметризован с помощью целевого обработчика, уровня, на котором должна происходить промывка, и емкости буфера (количество буферизируемых записей). По умолчанию используется значение StreamHandler, которое записывает в sys.stderr, logging.ERROR и 100 соответственно.

Вот сценарий:

import logging
from logging.handlers import MemoryHandler
import sys

logger = logging.getLogger(__name__)
logger.addHandler(logging.NullHandler())

def log_if_errors(logger, target_handler=None, flush_level=None, capacity=None):
    if target_handler is None:
        target_handler = logging.StreamHandler()
    if flush_level is None:
        flush_level = logging.ERROR
    if capacity is None:
        capacity = 100
    handler = MemoryHandler(capacity, flushLevel=flush_level, target=target_handler)

    def decorator(fn):
        def wrapper(*args, **kwargs):
            logger.addHandler(handler)
            try:
                return fn(*args, **kwargs)
            except Exception:
                logger.exception('call failed')
                raise
            finally:
                super(MemoryHandler, handler).flush()
                logger.removeHandler(handler)
        return wrapper

    return decorator

def write_line(s):
    sys.stderr.write('%s\n' % s)

def foo(fail=False):
    write_line('about to log at DEBUG ...')
    logger.debug('Actually logged at DEBUG')
    write_line('about to log at INFO ...')
    logger.info('Actually logged at INFO')
    write_line('about to log at WARNING ...')
    logger.warning('Actually logged at WARNING')
    if fail:
        write_line('about to log at ERROR ...')
        logger.error('Actually logged at ERROR')
        write_line('about to log at CRITICAL ...')
        logger.critical('Actually logged at CRITICAL')
    return fail

decorated_foo = log_if_errors(logger)(foo)

if __name__ == '__main__':
    logger.setLevel(logging.DEBUG)
    write_line('Calling undecorated foo with False')
    assert not foo(False)
    write_line('Calling undecorated foo with True')
    assert foo(True)
    write_line('Calling decorated foo with False')
    assert not decorated_foo(False)
    write_line('Calling decorated foo with True')
    assert decorated_foo(True)

При запуске этого сценария должен наблюдаться следующий вывод:

Calling undecorated foo with False
about to log at DEBUG ...
about to log at INFO ...
about to log at WARNING ...
Calling undecorated foo with True
about to log at DEBUG ...
about to log at INFO ...
about to log at WARNING ...
about to log at ERROR ...
about to log at CRITICAL ...
Calling decorated foo with False
about to log at DEBUG ...
about to log at INFO ...
about to log at WARNING ...
Calling decorated foo with True
about to log at DEBUG ...
about to log at INFO ...
about to log at WARNING ...
about to log at ERROR ...
Actually logged at DEBUG
Actually logged at INFO
Actually logged at WARNING
Actually logged at ERROR
about to log at CRITICAL ...
Actually logged at CRITICAL

Как видите, реальный вывод журнала происходит только тогда, когда регистрируется событие со степенью тяжести ERROR или выше, но в этом случае также регистрируются все предыдущие события с меньшей степенью тяжести.

Конечно, вы можете использовать традиционные средства декора:

@log_if_errors(logger)
def foo(fail=False):
    ...

Отправка сообщений журнала по электронной почте с буферизацией

Чтобы проиллюстрировать, как можно отправлять сообщения журнала по электронной почте так, чтобы на одно письмо отправлялось заданное количество сообщений, вы можете использовать подкласс BufferingHandler. В следующем примере, который вы можете адаптировать под свои нужды, представлен простой тестовый набор, позволяющий запускать скрипт с аргументами командной строки, указывающими, что обычно требуется для отправки сообщений по SMTP. (Запустите загруженный сценарий с аргументом -h, чтобы увидеть необходимые и необязательные аргументы).

import logging
import logging.handlers
import smtplib

class BufferingSMTPHandler(logging.handlers.BufferingHandler):
    def __init__(self, mailhost, port, username, password, fromaddr, toaddrs,
                 subject, capacity):
        logging.handlers.BufferingHandler.__init__(self, capacity)
        self.mailhost = mailhost
        self.mailport = port
        self.username = username
        self.password = password
        self.fromaddr = fromaddr
        if isinstance(toaddrs, str):
            toaddrs = [toaddrs]
        self.toaddrs = toaddrs
        self.subject = subject
        self.setFormatter(logging.Formatter("%(asctime)s %(levelname)-5s %(message)s"))

    def flush(self):
        if len(self.buffer) > 0:
            try:
                smtp = smtplib.SMTP(self.mailhost, self.mailport)
                smtp.starttls()
                smtp.login(self.username, self.password)
                msg = "From: %s\r\nTo: %s\r\nSubject: %s\r\n\r\n" % (self.fromaddr, ','.join(self.toaddrs), self.subject)
                for record in self.buffer:
                    s = self.format(record)
                    msg = msg + s + "\r\n"
                smtp.sendmail(self.fromaddr, self.toaddrs, msg)
                smtp.quit()
            except Exception:
                if logging.raiseExceptions:
                    raise
            self.buffer = []

if __name__ == '__main__':
    import argparse

    ap = argparse.ArgumentParser()
    aa = ap.add_argument
    aa('host', metavar='HOST', help='SMTP server')
    aa('--port', '-p', type=int, default=587, help='SMTP port')
    aa('user', metavar='USER', help='SMTP username')
    aa('password', metavar='PASSWORD', help='SMTP password')
    aa('to', metavar='TO', help='Addressee for emails')
    aa('sender', metavar='SENDER', help='Sender email address')
    aa('--subject', '-s',
       default='Test Logging email from Python logging module (buffering)',
       help='Subject of email')
    options = ap.parse_args()
    logger = logging.getLogger()
    logger.setLevel(logging.DEBUG)
    h = BufferingSMTPHandler(options.host, options.port, options.user,
                             options.password, options.sender,
                             options.to, options.subject, 10)
    logger.addHandler(h)
    for i in range(102):
        logger.info("Info index = %d", i)
    h.flush()
    h.close()

Если вы запустите этот скрипт и ваш SMTP-сервер настроен правильно, вы увидите, что он отправляет одиннадцать писем указанному вами адресату. Первые десять писем будут содержать по десять сообщений журнала, а одиннадцатое - два сообщения. Таким образом, получается 102 сообщения, как указано в сценарии.

Форматирование времени с использованием UTC (GMT) через конфигурацию

Иногда требуется отформатировать время по UTC, что можно сделать с помощью класса UTCFormatter, как показано ниже:

import logging
import time

class UTCFormatter(logging.Formatter):
    converter = time.gmtime

и тогда вы сможете использовать UTCFormatter в своем коде вместо Formatter. Если вы хотите сделать это с помощью конфигурации, вы можете использовать API dictConfig(). API с подходом, проиллюстрированным следующим полным примером:

import logging
import logging.config
import time

class UTCFormatter(logging.Formatter):
    converter = time.gmtime

LOGGING = {
    'version': 1,
    'disable_existing_loggers': False,
    'formatters': {
        'utc': {
            '()': UTCFormatter,
            'format': '%(asctime)s %(message)s',
        },
        'local': {
            'format': '%(asctime)s %(message)s',
        }
    },
    'handlers': {
        'console1': {
            'class': 'logging.StreamHandler',
            'formatter': 'utc',
        },
        'console2': {
            'class': 'logging.StreamHandler',
            'formatter': 'local',
        },
    },
    'root': {
        'handlers': ['console1', 'console2'],
   }
}

if __name__ == '__main__':
    logging.config.dictConfig(LOGGING)
    logging.warning('The local time is %s', time.asctime())

Когда этот скрипт будет запущен, он должен вывести что-то вроде:

2015-10-17 12:53:29,501 The local time is Sat Oct 17 13:53:29 2015
2015-10-17 13:53:29,501 The local time is Sat Oct 17 13:53:29 2015

показывающие, как время форматируется как в виде местного времени, так и в виде UTC, по одному для каждого обработчика.

Использование менеджера контекста для выборочного протоколирования

Бывают случаи, когда полезно временно изменить конфигурацию протоколирования и вернуть ее обратно после выполнения каких-либо действий. Для этого контекстный менеджер является наиболее очевидным способом сохранения и восстановления контекста логирования. Вот простой пример такого менеджера контекста, который позволяет опционально изменять уровень логирования и добавлять обработчик логирования исключительно в области действия менеджера контекста:

import logging
import sys

class LoggingContext:
    def __init__(self, logger, level=None, handler=None, close=True):
        self.logger = logger
        self.level = level
        self.handler = handler
        self.close = close

    def __enter__(self):
        if self.level is not None:
            self.old_level = self.logger.level
            self.logger.setLevel(self.level)
        if self.handler:
            self.logger.addHandler(self.handler)

    def __exit__(self, et, ev, tb):
        if self.level is not None:
            self.logger.setLevel(self.old_level)
        if self.handler:
            self.logger.removeHandler(self.handler)
        if self.handler and self.close:
            self.handler.close()
        # implicit return of None => don't swallow exceptions

Если вы укажете значение level, уровень регистратора будет установлен на это значение в области действия блока with, охватываемого менеджером контекста. Если вы укажете обработчик, он будет добавлен в логгер при входе в блок и удален при выходе из него. Вы также можете попросить менеджера закрыть обработчик для вас при выходе из блока - это можно сделать, если обработчик вам больше не нужен.

Чтобы проиллюстрировать, как это работает, мы можем добавить следующий блок кода к приведенному выше:

if __name__ == '__main__':
    logger = logging.getLogger('foo')
    logger.addHandler(logging.StreamHandler())
    logger.setLevel(logging.INFO)
    logger.info('1. This should appear just once on stderr.')
    logger.debug('2. This should not appear.')
    with LoggingContext(logger, level=logging.DEBUG):
        logger.debug('3. This should appear once on stderr.')
    logger.debug('4. This should not appear.')
    h = logging.StreamHandler(sys.stdout)
    with LoggingContext(logger, level=logging.DEBUG, handler=h, close=True):
        logger.debug('5. This should appear twice - once on stderr and once on stdout.')
    logger.info('6. This should appear just once on stderr.')
    logger.debug('7. This should not appear.')

Изначально мы устанавливаем уровень регистратора на INFO, поэтому сообщение № 1 появляется, а сообщение № 2 - нет. Затем в следующем блоке with мы временно меняем уровень на DEBUG, в результате чего появляется сообщение № 3. После выхода из блока уровень регистратора восстанавливается до INFO, поэтому сообщение #4 не появляется. В следующем блоке with мы снова устанавливаем уровень DEBUG, но также добавляем обработчик, пишущий в sys.stdout. Таким образом, сообщение #5 появляется на консоли дважды (один раз через stderr и один раз через stdout). После завершения оператора with состояние остается прежним, поэтому сообщение #6 появляется (как и сообщение #1), а сообщение #7 - нет (как и сообщение #2).

Если мы запустим полученный скрипт, результат будет следующим:

$ python logctx.py
1. This should appear just once on stderr.
3. This should appear once on stderr.
5. This should appear twice - once on stderr and once on stdout.
5. This should appear twice - once on stderr and once on stdout.
6. This should appear just once on stderr.

Если мы запустим его снова, но переведем stderr в /dev/null, то увидим следующее - единственное сообщение, записанное в stdout:

$ python logctx.py 2>/dev/null
5. This should appear twice - once on stderr and once on stdout.

Еще раз, но уже с пирамидой stdout на /dev/null, получаем:

$ python logctx.py >/dev/null
1. This should appear just once on stderr.
3. This should appear once on stderr.
5. This should appear twice - once on stderr and once on stdout.
6. This should appear just once on stderr.

В этом случае сообщение #5, выведенное на stdout, не появляется, как и ожидалось.

Конечно, описанный здесь подход может быть обобщен, например, для временного подключения фильтров протоколирования. Обратите внимание, что приведенный выше код работает как в Python 2, так и в Python 3.

Стартовый шаблон приложения CLI

Вот пример, который показывает, как это можно сделать:

  • Используйте уровень регистрации на основе аргументов командной строки

  • Отправка нескольких подкоманд в отдельные файлы, все из которых регистрируются на одном уровне в последовательном порядке

  • Используйте простую, минимальную конфигурацию

Предположим, у нас есть приложение командной строки, задачей которого является остановка, запуск или перезапуск некоторых служб. Для наглядности это можно организовать в виде файла app.py, который является основным сценарием приложения, а отдельные команды реализованы в start.py, stop.py и restart.py. Предположим далее, что мы хотим контролировать многословность приложения с помощью аргумента командной строки, по умолчанию равного logging.INFO. Вот один из вариантов написания app.py:

import argparse
import importlib
import logging
import os
import sys

def main(args=None):
    scriptname = os.path.basename(__file__)
    parser = argparse.ArgumentParser(scriptname)
    levels = ('DEBUG', 'INFO', 'WARNING', 'ERROR', 'CRITICAL')
    parser.add_argument('--log-level', default='INFO', choices=levels)
    subparsers = parser.add_subparsers(dest='command',
                                       help='Available commands:')
    start_cmd = subparsers.add_parser('start', help='Start a service')
    start_cmd.add_argument('name', metavar='NAME',
                           help='Name of service to start')
    stop_cmd = subparsers.add_parser('stop',
                                     help='Stop one or more services')
    stop_cmd.add_argument('names', metavar='NAME', nargs='+',
                          help='Name of service to stop')
    restart_cmd = subparsers.add_parser('restart',
                                        help='Restart one or more services')
    restart_cmd.add_argument('names', metavar='NAME', nargs='+',
                             help='Name of service to restart')
    options = parser.parse_args()
    # the code to dispatch commands could all be in this file. For the purposes
    # of illustration only, we implement each command in a separate module.
    try:
        mod = importlib.import_module(options.command)
        cmd = getattr(mod, 'command')
    except (ImportError, AttributeError):
        print('Unable to find the code for command \'%s\'' % options.command)
        return 1
    # Could get fancy here and load configuration from file or dictionary
    logging.basicConfig(level=options.log_level,
                        format='%(levelname)s %(name)s %(message)s')
    cmd(options)

if __name__ == '__main__':
    sys.exit(main())

А команды start, stop и restart могут быть реализованы в отдельных модулях, как, например, для запуска:

# start.py
import logging

logger = logging.getLogger(__name__)

def command(options):
    logger.debug('About to start %s', options.name)
    # actually do the command processing here ...
    logger.info('Started the \'%s\' service.', options.name)

и, следовательно, для остановки:

# stop.py
import logging

logger = logging.getLogger(__name__)

def command(options):
    n = len(options.names)
    if n == 1:
        plural = ''
        services = '\'%s\'' % options.names[0]
    else:
        plural = 's'
        services = ', '.join('\'%s\'' % name for name in options.names)
        i = services.rfind(', ')
        services = services[:i] + ' and ' + services[i + 2:]
    logger.debug('About to stop %s', services)
    # actually do the command processing here ...
    logger.info('Stopped the %s service%s.', services, plural)

и аналогично для перезапуска:

# restart.py
import logging

logger = logging.getLogger(__name__)

def command(options):
    n = len(options.names)
    if n == 1:
        plural = ''
        services = '\'%s\'' % options.names[0]
    else:
        plural = 's'
        services = ', '.join('\'%s\'' % name for name in options.names)
        i = services.rfind(', ')
        services = services[:i] + ' and ' + services[i + 2:]
    logger.debug('About to restart %s', services)
    # actually do the command processing here ...
    logger.info('Restarted the %s service%s.', services, plural)

Если мы запустим это приложение с уровнем журнала по умолчанию, то получим такой результат:

$ python app.py start foo
INFO start Started the 'foo' service.

$ python app.py stop foo bar
INFO stop Stopped the 'foo' and 'bar' services.

$ python app.py restart foo bar baz
INFO restart Restarted the 'foo', 'bar' and 'baz' services.

Первое слово - это уровень регистрации, а второе - имя модуля или пакета, в котором было зарегистрировано событие.

Если мы изменим уровень регистрации, то сможем изменить информацию, отправляемую в журнал. Например, если мы хотим получить больше информации:

$ python app.py --log-level DEBUG start foo
DEBUG start About to start foo
INFO start Started the 'foo' service.

$ python app.py --log-level DEBUG stop foo bar
DEBUG stop About to stop 'foo' and 'bar'
INFO stop Stopped the 'foo' and 'bar' services.

$ python app.py --log-level DEBUG restart foo bar baz
DEBUG restart About to restart 'foo', 'bar' and 'baz'
INFO restart Restarted the 'foo', 'bar' and 'baz' services.

А если мы хотим меньше:

$ python app.py --log-level WARNING start foo
$ python app.py --log-level WARNING stop foo bar
$ python app.py --log-level WARNING restart foo bar baz

В этом случае команды ничего не выводят в консоль, поскольку в них не регистрируется ничего на уровне WARNING и выше.

Графический интерфейс Qt для ведения журнала

Время от времени возникает вопрос о том, как войти в приложение с графическим интерфейсом. Фреймворк Qt - это популярный кроссплатформенный UI-фреймворк с привязкой к Python с использованием библиотек PySide2 или PyQt5.

В следующем примере показано, как вести журнал в графическом интерфейсе Qt. Здесь представлен простой класс QtHandler, который принимает вызываемую переменную, которая должна быть слотом в главном потоке, выполняющем обновление GUI. Также создается рабочий поток, чтобы показать, как можно вести журнал в GUI как из самого пользовательского интерфейса (с помощью кнопки для ручной регистрации), так и из рабочего потока, выполняющего работу в фоновом режиме (здесь просто регистрация сообщений на случайных уровнях со случайными короткими задержками между ними).

Рабочий поток реализован с помощью класса QThread Qt, а не модуля threading, поскольку в некоторых случаях необходимо использовать QThread, который обеспечивает лучшую интеграцию с другими компонентами Qt.

Код должен работать с последними версиями любого из PySide6, PyQt6, PySide2 или PyQt5. Вы должны быть в состоянии адаптировать подход к более ранним версиям Qt. За более подробной информацией обращайтесь к комментариям в фрагменте кода.

import datetime
import logging
import random
import sys
import time

# Deal with minor differences between different Qt packages
try:
    from PySide6 import QtCore, QtGui, QtWidgets
    Signal = QtCore.Signal
    Slot = QtCore.Slot
except ImportError:
    try:
        from PyQt6 import QtCore, QtGui, QtWidgets
        Signal = QtCore.pyqtSignal
        Slot = QtCore.pyqtSlot
    except ImportError:
        try:
            from PySide2 import QtCore, QtGui, QtWidgets
            Signal = QtCore.Signal
            Slot = QtCore.Slot
        except ImportError:
            from PyQt5 import QtCore, QtGui, QtWidgets
            Signal = QtCore.pyqtSignal
            Slot = QtCore.pyqtSlot

logger = logging.getLogger(__name__)


#
# Signals need to be contained in a QObject or subclass in order to be correctly
# initialized.
#
class Signaller(QtCore.QObject):
    signal = Signal(str, logging.LogRecord)

#
# Output to a Qt GUI is only supposed to happen on the main thread. So, this
# handler is designed to take a slot function which is set up to run in the main
# thread. In this example, the function takes a string argument which is a
# formatted log message, and the log record which generated it. The formatted
# string is just a convenience - you could format a string for output any way
# you like in the slot function itself.
#
# You specify the slot function to do whatever GUI updates you want. The handler
# doesn't know or care about specific UI elements.
#
class QtHandler(logging.Handler):
    def __init__(self, slotfunc, *args, **kwargs):
        super().__init__(*args, **kwargs)
        self.signaller = Signaller()
        self.signaller.signal.connect(slotfunc)

    def emit(self, record):
        s = self.format(record)
        self.signaller.signal.emit(s, record)

#
# This example uses QThreads, which means that the threads at the Python level
# are named something like "Dummy-1". The function below gets the Qt name of the
# current thread.
#
def ctname():
    return QtCore.QThread.currentThread().objectName()


#
# Used to generate random levels for logging.
#
LEVELS = (logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
          logging.CRITICAL)

#
# This worker class represents work that is done in a thread separate to the
# main thread. The way the thread is kicked off to do work is via a button press
# that connects to a slot in the worker.
#
# Because the default threadName value in the LogRecord isn't much use, we add
# a qThreadName which contains the QThread name as computed above, and pass that
# value in an "extra" dictionary which is used to update the LogRecord with the
# QThread name.
#
# This example worker just outputs messages sequentially, interspersed with
# random delays of the order of a few seconds.
#
class Worker(QtCore.QObject):
    @Slot()
    def start(self):
        extra = {'qThreadName': ctname() }
        logger.debug('Started work', extra=extra)
        i = 1
        # Let the thread run until interrupted. This allows reasonably clean
        # thread termination.
        while not QtCore.QThread.currentThread().isInterruptionRequested():
            delay = 0.5 + random.random() * 2
            time.sleep(delay)
            try:
                if random.random() < 0.1:
                    raise ValueError('Exception raised: %d' % i)
                else:
                    level = random.choice(LEVELS)
                    logger.log(level, 'Message after delay of %3.1f: %d', delay, i, extra=extra)
            except ValueError as e:
                logger.exception('Failed: %s', e, extra=extra)
            i += 1

#
# Implement a simple UI for this cookbook example. This contains:
#
# * A read-only text edit window which holds formatted log messages
# * A button to start work and log stuff in a separate thread
# * A button to log something from the main thread
# * A button to clear the log window
#
class Window(QtWidgets.QWidget):

    COLORS = {
        logging.DEBUG: 'black',
        logging.INFO: 'blue',
        logging.WARNING: 'orange',
        logging.ERROR: 'red',
        logging.CRITICAL: 'purple',
    }

    def __init__(self, app):
        super().__init__()
        self.app = app
        self.textedit = te = QtWidgets.QPlainTextEdit(self)
        # Set whatever the default monospace font is for the platform
        f = QtGui.QFont('nosuchfont')
        if hasattr(f, 'Monospace'):
            f.setStyleHint(f.Monospace)
        else:
            f.setStyleHint(f.StyleHint.Monospace)  # for Qt6
        te.setFont(f)
        te.setReadOnly(True)
        PB = QtWidgets.QPushButton
        self.work_button = PB('Start background work', self)
        self.log_button = PB('Log a message at a random level', self)
        self.clear_button = PB('Clear log window', self)
        self.handler = h = QtHandler(self.update_status)
        # Remember to use qThreadName rather than threadName in the format string.
        fs = '%(asctime)s %(qThreadName)-12s %(levelname)-8s %(message)s'
        formatter = logging.Formatter(fs)
        h.setFormatter(formatter)
        logger.addHandler(h)
        # Set up to terminate the QThread when we exit
        app.aboutToQuit.connect(self.force_quit)

        # Lay out all the widgets
        layout = QtWidgets.QVBoxLayout(self)
        layout.addWidget(te)
        layout.addWidget(self.work_button)
        layout.addWidget(self.log_button)
        layout.addWidget(self.clear_button)
        self.setFixedSize(900, 400)

        # Connect the non-worker slots and signals
        self.log_button.clicked.connect(self.manual_update)
        self.clear_button.clicked.connect(self.clear_display)

        # Start a new worker thread and connect the slots for the worker
        self.start_thread()
        self.work_button.clicked.connect(self.worker.start)
        # Once started, the button should be disabled
        self.work_button.clicked.connect(lambda : self.work_button.setEnabled(False))

    def start_thread(self):
        self.worker = Worker()
        self.worker_thread = QtCore.QThread()
        self.worker.setObjectName('Worker')
        self.worker_thread.setObjectName('WorkerThread')  # for qThreadName
        self.worker.moveToThread(self.worker_thread)
        # This will start an event loop in the worker thread
        self.worker_thread.start()

    def kill_thread(self):
        # Just tell the worker to stop, then tell it to quit and wait for that
        # to happen
        self.worker_thread.requestInterruption()
        if self.worker_thread.isRunning():
            self.worker_thread.quit()
            self.worker_thread.wait()
        else:
            print('worker has already exited.')

    def force_quit(self):
        # For use when the window is closed
        if self.worker_thread.isRunning():
            self.kill_thread()

    # The functions below update the UI and run in the main thread because
    # that's where the slots are set up

    @Slot(str, logging.LogRecord)
    def update_status(self, status, record):
        color = self.COLORS.get(record.levelno, 'black')
        s = '<pre><font color="%s">%s</font></pre>' % (color, status)
        self.textedit.appendHtml(s)

    @Slot()
    def manual_update(self):
        # This function uses the formatted message passed in, but also uses
        # information from the record to format the message in an appropriate
        # color according to its severity (level).
        level = random.choice(LEVELS)
        extra = {'qThreadName': ctname() }
        logger.log(level, 'Manually logged!', extra=extra)

    @Slot()
    def clear_display(self):
        self.textedit.clear()


def main():
    QtCore.QThread.currentThread().setObjectName('MainThread')
    logging.getLogger().setLevel(logging.DEBUG)
    app = QtWidgets.QApplication(sys.argv)
    example = Window(app)
    example.show()
    if hasattr(app, 'exec'):
        rc = app.exec()
    else:
        rc = app.exec_()
    sys.exit(rc)

if __name__=='__main__':
    main()

Ведение журнала в syslog с поддержкой RFC5424

Хотя протокол RFC 5424 датируется 2009 годом, большинство серверов syslog по умолчанию настроены на использование более старого протокола RFC 3164, который появился в 2001 году. Когда logging был добавлен в Python в 2003 году, он поддерживал более ранний (и единственный существующий на тот момент) протокол. С момента выхода RFC5424, поскольку он не получил широкого распространения в серверах syslog, функциональность SysLogHandler не обновлялась.

RFC 5424 содержит некоторые полезные функции, такие как поддержка структурированных данных, и если вам нужно иметь возможность вести журнал на сервере syslog с их поддержкой, вы можете сделать это с помощью подкласса обработчика, который выглядит примерно так:

import datetime
import logging.handlers
import re
import socket
import time

class SysLogHandler5424(logging.handlers.SysLogHandler):

    tz_offset = re.compile(r'([+-]\d{2})(\d{2})$')
    escaped = re.compile(r'([\]"\\])')

    def __init__(self, *args, **kwargs):
        self.msgid = kwargs.pop('msgid', None)
        self.appname = kwargs.pop('appname', None)
        super().__init__(*args, **kwargs)

    def format(self, record):
        version = 1
        asctime = datetime.datetime.fromtimestamp(record.created).isoformat()
        m = self.tz_offset.match(time.strftime('%z'))
        has_offset = False
        if m and time.timezone:
            hrs, mins = m.groups()
            if int(hrs) or int(mins):
                has_offset = True
        if not has_offset:
            asctime += 'Z'
        else:
            asctime += f'{hrs}:{mins}'
        try:
            hostname = socket.gethostname()
        except Exception:
            hostname = '-'
        appname = self.appname or '-'
        procid = record.process
        msgid = '-'
        msg = super().format(record)
        sdata = '-'
        if hasattr(record, 'structured_data'):
            sd = record.structured_data
            # This should be a dict where the keys are SD-ID and the value is a
            # dict mapping PARAM-NAME to PARAM-VALUE (refer to the RFC for what these
            # mean)
            # There's no error checking here - it's purely for illustration, and you
            # can adapt this code for use in production environments
            parts = []

            def replacer(m):
                g = m.groups()
                return '\\' + g[0]

            for sdid, dv in sd.items():
                part = f'[{sdid}'
                for k, v in dv.items():
                    s = str(v)
                    s = self.escaped.sub(replacer, s)
                    part += f' {k}="{s}"'
                part += ']'
                parts.append(part)
            sdata = ''.join(parts)
        return f'{version} {asctime} {hostname} {appname} {procid} {msgid} {sdata} {msg}'

Для полного понимания приведенного выше кода вам потребуется знакомство с RFC 5424, и может оказаться, что у вас несколько иные потребности (например, в том, как передавать структурные данные в журнал). Тем не менее, приведенный выше код можно адаптировать под ваши конкретные нужды. С помощью приведенного выше обработчика вы передадите структурированные данные, используя что-то вроде этого:

sd = {
    'foo@12345': {'bar': 'baz', 'baz': 'bozz', 'fizz': r'buzz'},
    'foo@54321': {'rab': 'baz', 'zab': 'bozz', 'zzif': r'buzz'}
}
extra = {'structured_data': sd}
i = 1
logger.debug('Message %d', i, extra=extra)

Как обращаться с регистратором как с выходным потоком

Иногда вам нужно подключиться к стороннему API, который ожидает файлоподобный объект для записи, но вы хотите направить вывод API в логгер. Это можно сделать с помощью класса, который оборачивает логгер файлоподобным API. Вот небольшой скрипт, иллюстрирующий такой класс:

import logging

class LoggerWriter:
    def __init__(self, logger, level):
        self.logger = logger
        self.level = level

    def write(self, message):
        if message != '\n':  # avoid printing bare newlines, if you like
            self.logger.log(self.level, message)

    def flush(self):
        # doesn't actually do anything, but might be expected of a file-like
        # object - so optional depending on your situation
        pass

    def close(self):
        # doesn't actually do anything, but might be expected of a file-like
        # object - so optional depending on your situation. You might want
        # to set a flag so that later calls to write raise an exception
        pass

def main():
    logging.basicConfig(level=logging.DEBUG)
    logger = logging.getLogger('demo')
    info_fp = LoggerWriter(logger, logging.INFO)
    debug_fp = LoggerWriter(logger, logging.DEBUG)
    print('An INFO message', file=info_fp)
    print('A DEBUG message', file=debug_fp)

if __name__ == "__main__":
    main()

Когда этот скрипт выполняется, он печатает

INFO:demo:An INFO message
DEBUG:demo:A DEBUG message

Вы также можете использовать LoggerWriter для перенаправления sys.stdout и sys.stderr, сделав примерно следующее:

import sys

sys.stdout = LoggerWriter(logger, logging.INFO)
sys.stderr = LoggerWriter(logger, logging.WARNING)

Это следует делать после настройки логирования для ваших нужд. В приведенном выше примере это делает вызов basicConfig() (используя значение sys.stderr до того, как оно будет перезаписано экземпляром LoggerWriter). Тогда вы получите такой результат:

>>> print('Foo')
INFO:demo:Foo
>>> print('Bar', file=sys.stderr)
WARNING:demo:Bar
>>>

Конечно, приведенные выше примеры показывают вывод в соответствии с форматом, используемым basicConfig(), но вы можете использовать другой формат при настройке протоколирования.

Обратите внимание, что при использовании вышеописанной схемы вы в некоторой степени зависите от буферизации и последовательности вызовов записи, которые вы перехватываете. Например, с определением LoggerWriter выше, если у вас есть фрагмент

sys.stderr = LoggerWriter(logger, logging.WARNING)
1 / 0

после чего запуск скрипта приводит к

WARNING:demo:Traceback (most recent call last):

WARNING:demo:  File "/home/runner/cookbook-loggerwriter/test.py", line 53, in <module>

WARNING:demo:
WARNING:demo:main()
WARNING:demo:  File "/home/runner/cookbook-loggerwriter/test.py", line 49, in main

WARNING:demo:
WARNING:demo:1 / 0
WARNING:demo:ZeroDivisionError
WARNING:demo::
WARNING:demo:division by zero

Как видите, этот вывод не идеален. Это потому, что основной код, который записывает в sys.stderr, делает несколько записей, каждая из которых приводит к отдельной строке журнала (например, последние три строки выше). Чтобы обойти эту проблему, необходимо буферизировать данные и выводить строки журнала только при появлении новых строк. Давайте воспользуемся более удачной реализацией LoggerWriter:

class BufferingLoggerWriter(LoggerWriter):
    def __init__(self, logger, level):
        super().__init__(logger, level)
        self.buffer = ''

    def write(self, message):
        if '\n' not in message:
            self.buffer += message
        else:
            parts = message.split('\n')
            if self.buffer:
                s = self.buffer + parts.pop(0)
                self.logger.log(self.level, s)
            self.buffer = parts.pop()
            for part in parts:
                self.logger.log(self.level, part)

Это просто буферизирует материал до появления новой строки, а затем записывает полные строки. При таком подходе вы получаете более качественный вывод:

WARNING:demo:Traceback (most recent call last):
WARNING:demo:  File "/home/runner/cookbook-loggerwriter/main.py", line 55, in <module>
WARNING:demo:    main()
WARNING:demo:  File "/home/runner/cookbook-loggerwriter/main.py", line 52, in main
WARNING:demo:    1/0
WARNING:demo:ZeroDivisionError: division by zero

Узоры, которых следует избегать

Хотя в предыдущих разделах были описаны способы выполнения действий, которые могут вам понадобиться, стоит упомянуть некоторые модели использования, которые являются неполезными, и поэтому их следует избегать в большинстве случаев. Следующие разделы расположены не в определенном порядке.

Открытие одного и того же файла журнала несколько раз

В Windows вы, как правило, не сможете открыть один и тот же файл несколько раз, поскольку это приведет к ошибке «файл используется другим процессом». Однако на POSIX-платформах вы не получите никаких ошибок, если откроете один и тот же файл несколько раз. Это может быть сделано случайно, например:

  • Добавление обработчика файла более одного раза, который ссылается на один и тот же файл (например, в результате ошибки копирования/вставки/забытия).

  • Открытие двух файлов, которые выглядят по-разному, поскольку имеют разные имена, но являются одним и тем же, поскольку один из них является символической ссылкой на другой.

  • Форкинг процесса, после которого и родительский, и дочерний процессы имеют ссылку на один и тот же файл. Это может быть сделано, например, с помощью модуля multiprocessing.

Многократное открытие файла может кажется работать большую часть времени, но на практике это может привести к ряду проблем:

  • Вывод журнала может быть искажен из-за того, что несколько потоков или процессов пытаются записать данные в один и тот же файл. Хотя протоколирование защищает от одновременного использования одного и того же экземпляра обработчика несколькими потоками, такой защиты нет, если одновременную запись пытаются выполнить два разных потока, используя два разных экземпляра обработчика, которые случайно указывают на один и тот же файл.

  • Попытка удалить файл (например, при ротации файлов) не удается, поскольку на него есть другая ссылка. Это может привести к путанице и потере времени на отладку - записи журнала оказываются в неожиданных местах или вообще теряются. Или файл, который должен был быть перемещен, остается на месте и неожиданно увеличивается в размере, несмотря на то, что ротация на основе размера якобы выполняется.

Чтобы обойти эти проблемы, используйте приемы, описанные в Ведение журнала в одном файле из нескольких процессов.

Использование регистраторов в качестве атрибутов в классе или передача их в качестве параметров

Хотя могут быть необычные случаи, когда вам понадобится это сделать, в общем случае в этом нет смысла, потому что логгеры - это синглтоны. Код всегда может получить доступ к данному экземпляру логгера по имени, используя logging.getLogger(name), поэтому передавать экземпляры и хранить их в качестве атрибутов экземпляра бессмысленно. Обратите внимание, что в других языках, таких как Java и C#, логгеры часто являются статическими атрибутами класса. Однако эта схема не имеет смысла в Python, где модуль (а не класс) является единицей декомпозиции программного обеспечения.

Добавление обработчиков, отличных от NullHandler, к регистратору в библиотеке

Настройка протоколирования путем добавления обработчиков, форматеров и фильтров является обязанностью разработчика приложения, а не разработчика библиотеки. Если вы поддерживаете библиотеку, убедитесь, что вы не добавляете обработчики ни к одному из ваших логгеров, кроме экземпляра NullHandler.

Создание большого количества регистраторов

Логгеры - это синглтоны, которые никогда не освобождаются во время выполнения скрипта, поэтому создание большого количества логгеров приведет к расходованию памяти, которую потом нельзя будет освободить. Вместо того чтобы создавать логгер для каждого обработанного файла или установленного сетевого соединения, используйте existing mechanisms для передачи контекстной информации в ваши логи и ограничьте количество создаваемых логгеров теми, которые описывают области в вашем приложении (как правило, модули, но иногда они могут быть немного более тонкими).

Другие ресурсы

См.также

Модуль logging

Ссылка на API для модуля протоколирования.

Модуль logging.config

API конфигурации для модуля протоколирования.

Модуль logging.handlers

Полезные обработчики, входящие в состав модуля протоколирования.

Basic Tutorial

Advanced Tutorial