| Цитата |
|---|
| Александр Медведев написал: База удалённая чтоли? |
|
|||
|
|
|
|
|||
|
|
|
вот последние строки 2019-01-29T09:56:12.246197Z 0 [Note] Binlog end 2019-01-29T09:56:12.246366Z 0 [Note] Shutting down plugin 'MyISAM' 2019-01-29T09:56:12.247399Z 0 [Note] /usr/sbin/mysqld: Shutdown complete 2019-01-29T09:56:12.691254Z 0 [Warning] Changed limits: max_open_files: 5000 (requested 20540) 2019-01-29T09:56:12.691846Z 0 [Warning] Changed limits: table_open_cache: 2470 (requested 10240) 2019-01-29T09:56:12.884721Z 0 [Warning] 'NO_AUTO_CREATE_USER' sql mode was not set. 2019-01-29T09:56:12.887056Z 0 [Note] /usr/sbin/mysqld (mysqld 5.7.21-21) starting as process 20629 ... 2019-01-29T09:56:12.898120Z 0 [Note] InnoDB: PUNCH HOLE support available 2019-01-29T09:56:12.898185Z 0 [Note] InnoDB: Mutexes and rw_locks use GCC atomic builtins 2019-01-29T09:56:12.898194Z 0 [Note] InnoDB: Uses event mutexes 2019-01-29T09:56:12.898201Z 0 [Note] InnoDB: GCC builtin __atomic_thread_fence() is used for memory barrier 2019-01-29T09:56:12.898208Z 0 [Note] InnoDB: Compressed tables use zlib 1.2.7 2019-01-29T09:56:12.898214Z 0 [Note] InnoDB: Using Linux native AIO 2019-01-29T09:56:12.898634Z 0 [Note] InnoDB: Number of pools: 1 2019-01-29T09:56:12.898825Z 0 [Note] InnoDB: Using CPU crc32 instructions 2019-01-29T09:56:12.901505Z 0 [Note] InnoDB: Initializing buffer pool, total size = 2G, instances = 8, chunk size = 128M 2019-01-29T09:56:12.970670Z 0 [Note] InnoDB: Completed initialization of buffer pool 2019-01-29T09:56:12.987082Z 0 [Note] InnoDB: If the mysqld execution user is authorized, page cleaner thread priority can be changed. See the man page of setpriority(). 2019-01-29T09:56:13.001283Z 0 [Note] InnoDB: Recovering partial pages from the parallel doublewrite buffer at /var/lib/mysql/xb_doublewrite 2019-01-29T09:56:13.023369Z 0 [Note] InnoDB: Highest supported file format is Barracuda. 2019-01-29T09:56:13.036056Z 0 [Note] InnoDB: Log scan progressed past the checkpoint lsn 2142290997 2019-01-29T09:56:13.036131Z 0 [Note] InnoDB: Doing recovery: scanned up to log sequence number 2142315008 2019-01-29T09:56:13.037015Z 0 [ERROR] InnoDB: Ignoring the redo log due to missing MLOG_CHECKPOINT between the checkpoint 2142290997 and the end 2142315008. 2019-01-29T09:56:13.037570Z 0 [ERROR] InnoDB: Plugin initialization aborted with error Generic error 2019-01-29T09:56:18.218481Z 0 [ERROR] Plugin 'InnoDB' init function returned error. 2019-01-29T09:56:18.218547Z 0 [ERROR] Plugin 'InnoDB' registration as a STORAGE ENGINE failed. 2019-01-29T09:56:18.218562Z 0 [ERROR] Failed to initialize builtin plugins. 2019-01-29T09:56:18.218571Z 0 [ERROR] Aborting 2019-01-29T09:56:18.218635Z 0 [Note] Binlog end 2019-01-29T09:56:18.218808Z 0 [Note] Shutting down plugin 'MyISAM' 2019-01-29T09:56:18.220104Z 0 [Note] /usr/sbin/mysqld: Shutdown complete 2019-01-29T09:56:18.652338Z 0 [Warning] Changed limits: max_open_files: 5000 (requested 20540) 2019-01-29T09:56:18.652933Z 0 [Warning] Changed limits: table_open_cache: 2470 (requested 10240) 2019-01-29T09:56:18.877797Z 0 [Warning] 'NO_AUTO_CREATE_USER' sql mode was not set. 2019-01-29T09:56:18.879765Z 0 [Note] /usr/sbin/mysqld (mysqld 5.7.21-21) starting as process 20675 ... 2019-01-29T09:56:18.891745Z 0 [Note] InnoDB: PUNCH HOLE support available 2019-01-29T09:56:18.891823Z 0 [Note] InnoDB: Mutexes and rw_locks use GCC atomic builtins 2019-01-29T09:56:18.891838Z 0 [Note] InnoDB: Uses event mutexes 2019-01-29T09:56:18.891847Z 0 [Note] InnoDB: GCC builtin __atomic_thread_fence() is used for memory barrier 2019-01-29T09:56:18.891854Z 0 [Note] InnoDB: Compressed tables use zlib 1.2.7 2019-01-29T09:56:18.891876Z 0 [Note] InnoDB: Using Linux native AIO 2019-01-29T09:56:18.892368Z 0 [Note] InnoDB: Number of pools: 1 2019-01-29T09:56:18.892592Z 0 [Note] InnoDB: Using CPU crc32 instructions 2019-01-29T09:56:18.895955Z 0 [Note] InnoDB: Initializing buffer pool, total size = 2G, instances = 8, chunk size = 128M 2019-01-29T09:56:18.989038Z 0 [Note] InnoDB: Completed initialization of buffer pool 2019-01-29T09:56:19.021051Z 0 [Note] InnoDB: If the mysqld execution user is authorized, page cleaner thread priority can be changed. See the man page of setpriority(). 2019-01-29T09:56:19.038813Z 0 [Note] InnoDB: Recovering partial pages from the parallel doublewrite buffer at /var/lib/mysql/xb_doublewrite 2019-01-29T09:56:19.088939Z 0 [Note] InnoDB: Highest supported file format is Barracuda. 2019-01-29T09:56:19.113804Z 0 [Note] InnoDB: Log scan progressed past the checkpoint lsn 2142290997 2019-01-29T09:56:19.113894Z 0 [Note] InnoDB: Doing recovery: scanned up to log sequence number 2142315008 2019-01-29T09:56:19.115144Z 0 [ERROR] InnoDB: Ignoring the redo log due to missing MLOG_CHECKPOINT between the checkpoint 2142290997 and the end 2142315008. 2019-01-29T09:56:19.115779Z 0 [ERROR] InnoDB: Plugin initialization aborted with error Generic error |
|||
|
|
|
Логов с расширением .err не удалось найти. А эти не удалось прочитать |
|||||
|
|
|
|
Добрый день господа! Помогите разобраться:
У нас vmbitrix последней сборки. С утра после перезагрузки портал не может запустить Mysql:
Прошли по ранее уже известным нам граблям и: 1) Проверили свободное - место, там 2 терабайта, занято 1%. 2) Удалили временные файлы сокетов, рестартнули Mysqld но не помогает. При рестарте выводит вот это: Job for mysqld.service failed because the control process exited with error code. See "systemctl status mysqld.service" and "journalctl -xe" for details. Привожу тексты разных команд. Во-первых: systemctl status mysqld.service
кусок ответа по команде journalctl -xe
Свободное место df -h
ps -AlF | grep mysql после попытки рестарта
Остановка и запуск сервиса не помогает. В чем еще может быть проблема? |
|||||||||||
|
|
|
Спасибо, вы подсказали, куда копать! |
|||||
|
|
|
Реально полную она делает только через меню Действия - "Выполнить полный обмен данными" (типа принудительной полной выгрузки, а она только вручную может быть запущена) Полную принудительную клиент запускает согласно моей инструкции: после новых поступлений, например, после учета, или после сбоев выгрузки, чтобы синхронизировать всю информацию разом. Делают это эпизодически, вечером после закрытия. |
|||
|
|
|
<ПакетПредложений СодержитТолькоИзменения="false"> |
|||||||
|
|
|
|
UPDATE информации!!!
Выгружала несколько товаров в файл. Во всех случаях результат в файле одинаковый:
так что предложение спецов по 1С просто не сработает >< А сайт не может понять, что остаток изменился лишь на основании того, что строчки со складом просто нет ((( Тут 2 варианта: - или допиливать выгрузку, чтобы появилась вторая строчка, и все вместо было вида:
Тогда, видимо, он запишет этот 0 в остаток. - или допиливать обмен на сайте, чтобы при отсутствии этой строчки, меняло кол-во этого типоразмера на остальных складах на "0". Звучит ужасно, т.к. складов же может быть много, и что теперь, каждый раз проверять "а нет ли других складов" и "нет ли там остатков этого типоразмера" и тогда обнулять число. |
|||||||
|
|
|
|
Те, кто сталкивался - сразу поймут, о чем речь.
Если в файле пришло <Количество>2</Количество> <Склад ИдСклада="3e2639dd-a218-44f0-bd1c-d581a011bad5" КоличествоНаСкладе="1"/> <Склад ИдСклада="eb09fa8c-1dd4-4c2d-b0c7-3ae46b44f24a" КоличествоНаСкладе="1"/> То все ок. Если в файле пришло: <Количество>1</Количество> <Склад ИдСклада="3e2639dd-a218-44f0-bd1c-d581a011bad5" КоличествоНаСкладе="1"/> То на складе eb09fa8c-1dd4-4c2d-b0c7-3ae46b44f24a на сайте почему-то остается значение "1", оно не становится нулем. По итогу на сайте остатки отражены некорректно. Всего этого размера 1 и как будто на каждом складе по 1, как бы 1+1 =1 получается. РЕЧЬ ИДЕТ О ТОРГОВЫХ ПРЕДЛОЖЕНИЯХ, а не о товарах самих. Настройка "Деактивировать товары, которых не было в файле" - галочка включена. С товарами она нормально работает. И с предложениями, по которым совсем остатков нет и они не попали в файл вообще - тоже работает. А вот с предложениями, которые есть не на всех складах - ерунда получается. Спецы по 1С предлагают грузить не фильтруя "0 и более", в таком случае файл становится слишком большой. В него попадают товары, которых в-принципе нет и не предвидится, лишние данные гонять не оптимально. Подскажите, это бага? Если не бага, а "так и було" - кто как это решал..... Заранее спасибо. |
|
|
|
|
|
|||
|
|
|
|
Переустановили вмваре, сделали соединение бриджед, все заработало, пробросы заработали, кроме PUSH сервера
Порты открыты нужные Но Push и бизнес чат снова не работает. ВОт ответ проверки системы: 2017-Dec-29 10:57:48 Бизнес-чат в реальном времени (check_pull_stream): FailServer version: 3 (Bitrix Push server) Connection to ssl://portal.sbgs.ru:443 Success Connection to portal.sbgs.ru:8895 Success == Request == POST /bitrix/pub/?CHANNEL_ID=194eb0c724abfc70b68a2737f3aac0a6.d86b13b5c66d45ccd83a5d0901dc5c6ebea35b0d HTTP/1.0 Host: portal.sbgs.ru Content-Length: 32 a566473a0f6916e59ec923cb3acc577b == Response == == Body == ========== == Request == GET /bitrix/sub/?CHANNEL_ID=194eb0c724abfc70b68a2737f3aac0a6.d86b13b5c66d45ccd83a5d0901dc5c6ebea35b0d HTTP/1.0 If-Modified-Since: Thu, 28 Dec 2017 10:55:48 +0500 Host: portal.sbgs.ru == Response == == Body == ========== Connection to portal.sbgs.ru:8895 Success Ошибка! Модуль nginx-push-stream работает некорректно |
|
|
|
|
|
Всем доброго дня!
Предыстория такая: На сервере сети долгое время прокси и файрволлом служил Usergate Совместно с админом сети и вопреки всему, мы поднимали виртуалку битрикс на этом сервере, воюя с файрволлами, со всех сторон. В итоге пришлось самой мануал по Usergate скурить и использовать при пробросе портов и настройке там разных правил. (Еще Windows сидела сама тоже на 80 порту, но это отдельная история). С помощью битриксоидов и разработчиков с форума недавно поднимали портал из руин (БД полетела после некорректной перезагрузки - аварии) и настраивали ssl-сертификат для работы push-уведомлений. И когда наконец настроили и все заработало, админ сети перезагрузил сервак, даже недельку не дал поработать всей этой хлипкой системе. И что-то сломалось и Usergate перехватил и подменил ssl-сертификат своим, портал не открывался по https и push-уведомления снова сломались. Они там собрали консилиум и решили выкинуть юзергейт чкть более, чем полностью (а не пытаться донастроить его), и поставить обычный роутер Zyxel Keenetic. Сетку пересобрал админ на этом роутере, и дело дошло до проброса портов. Но они не пробрасываются, происходит ругань на то, что виртуалка находится в другой подсети. До сервака пробросы разных портов работают, а дальше никак. Ранее при соединении NAT портал открывался и на хостовой машине (localhost) и по своему IP, а теперь только по своему IP. Мои действия в данном случае какие? переустановить VMWARE? |
|
|
|
|
|
|||
|
|
|
|
|||
|
|
|
|
|||
|
|
|
После перезапуска машины не работает сертификат, hostname снова такой, как я указала, переименовать обратно или что мне сделать в данной ситуации? И где можно посмотреть конфиги, чтобы понять, какой hostname используется в сертификате? |
|||
|
|
|
|
|||||
|
|
|
|
|||
|
|
|
|
Сейчас почему-то портал не отвечает, хотя я ничего не делала, только отправила еще 1 запрос на ssl!!!
[root@portal ~]# systemctl status nginx.service Б?? nginx.service - nginx - high performance web server Loaded: loaded (/usr/lib/systemd/system/nginx.service; enabled; vendor preset : disabled) Active: failed (Result: exit-code) since Wed 2017-12-13 18:37:49 +05; 54min a go Docs: Process: 1285 ExecStartPre=/usr/sbin/nginx -t -c /etc/nginx/nginx.conf (code=e xited, status=1/FAILURE) Dec 13 18:37:49 portal.sbgs.ru systemd[1]: Starting nginx - high performance.... Dec 13 18:37:49 portal.sbgs.ru nginx[1285]: nginx: [emerg] host not found in...8 Dec 13 18:37:49 portal.sbgs.ru nginx[1285]: nginx: configuration file /etc/n...d Dec 13 18:37:49 portal.sbgs.ru systemd[1]: nginx.service: control process ex...1 Dec 13 18:37:49 portal.sbgs.ru systemd[1]: Failed to start nginx - high perf.... Dec 13 18:37:49 portal.sbgs.ru systemd[1]: Unit nginx.service entered failed.... Dec 13 18:37:49 portal.sbgs.ru systemd[1]: nginx.service failed. Hint: Some lines were ellipsized, use -l to show in full. [root@portal ~]# journalctl -xe Dec 13 19:32:01 portal.sbgs.ru systemd[1]: Started Session 121 of user root. -- Subject: Unit session-121.scope has finished start-up -- Defined-By: systemd -- Support: -- -- Unit session-121.scope has finished starting up. -- -- The start-up result is done. Dec 13 19:32:01 portal.sbgs.ru systemd[1]: Starting Session 121 of user root. -- Subject: Unit session-121.scope has begun start-up -- Defined-By: systemd -- Support: -- -- Unit session-121.scope has begun starting up. Dec 13 19:32:01 portal.sbgs.ru CROND[3152]: (bitrix) CMD (php -f /home/bitrix/www/bitrix/php_interface/cron_events.php) Dec 13 19:32:01 portal.sbgs.ru CROND[3153]: (root) CMD (/opt/webdir/bin/restart_httpd-scale.sh process) Dec 13 19:32:02 portal.sbgs.ru sshd[3145]: Failed password for root from 192.168.71.1 port 55751 ssh2 Dec 13 19:32:02 portal.sbgs.ru sshd[3145]: error: maximum authentication attempts exceeded for root from 192.168.71.1 port 55751 ssh2 [preauth] Dec 13 19:32:02 portal.sbgs.ru sshd[3145]: Disconnecting: Too many authentication failures [preauth] Dec 13 19:32:02 portal.sbgs.ru sshd[3145]: PAM 5 more authentication failures; logname= uid=0 euid=0 tty=ssh ruser= rhost=192.168.71.1 user=root Dec 13 19:32:02 portal.sbgs.ru sshd[3145]: PAM service(sshd) ignoring max retries; 6 > 3 Dec 13 19:32:02 portal.sbgs.ru systemd[1]: Removed slice User Slice of bitrix. -- Subject: Unit user-600.slice has finished shutting down -- Defined-By: systemd -- Support: -- -- Unit user-600.slice has finished shutting down. Dec 13 19:32:02 portal.sbgs.ru systemd[1]: Stopping User Slice of bitrix. -- Subject: Unit user-600.slice has begun shutting down -- Defined-By: systemd -- Support: -- -- Unit user-600.slice has begun shutting down. Dec 13 19:32:08 portal.sbgs.ru sshd[3147]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=192.168.71.1 user=root Dec 13 19:32:08 portal.sbgs.ru sshd[3147]: pam_succeed_if(sshd:auth): requirement "uid >= 1000" not met by user "root" Dec 13 19:32:09 portal.sbgs.ru sshd[3147]: Failed password for root from 192.168.71.1 port 55770 ssh2 Dec 13 19:32:10 portal.sbgs.ru sshd[3147]: pam_succeed_if(sshd:auth): requirement "uid >= 1000" not met by user "root" Dec 13 19:32:12 portal.sbgs.ru sshd[3147]: Failed password for root from 192.168.71.1 port 55770 ssh2 Dec 13 19:32:13 portal.sbgs.ru sshd[3147]: pam_succeed_if(sshd:auth): requirement "uid >= 1000" not met by user "root" Dec 13 19:32:15 portal.sbgs.ru sshd[3147]: Failed password for root from 192.168.71.1 port 55770 ssh2 Dec 13 19:32:16 portal.sbgs.ru sshd[3147]: error: maximum authentication attempts exceeded for root from 192.168.71.1 port 55770 ssh2 [preauth] Dec 13 19:32:16 portal.sbgs.ru sshd[3147]: Disconnecting: Too many authentication failures [preauth] Dec 13 19:32:16 portal.sbgs.ru sshd[3147]: PAM 2 more authentication failures; logname= uid=0 euid=0 tty=ssh ruser= rhost=192.168.71.1 user=root Dec 13 19:32:25 portal.sbgs.ru sshd[3157]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=192.168.71.1 user=root Dec 13 19:32:25 portal.sbgs.ru sshd[3157]: pam_succeed_if(sshd:auth): requirement "uid >= 1000" not met by user "root" Dec 13 19:32:27 portal.sbgs.ru sshd[3157]: Failed password for root from 192.168.71.1 port 55794 ssh2 Dec 13 19:32:28 portal.sbgs.ru sshd[3157]: pam_succeed_if(sshd:auth): requirement "uid >= 1000" not met by user "root" Dec 13 19:32:30 portal.sbgs.ru sshd[3157]: Failed password for root from 192.168.71.1 port 55794 ssh2 Dec 13 19:32:31 portal.sbgs.ru sshd[3157]: pam_succeed_if(sshd:auth): requirement "uid >= 1000" not met by user "root" |
|
|
|
|
TASK [web : update site config] ************************************************ changed: [portal] => (item={u'CompositeExcludeParams': [], u'CronTask': u'disable', u'NginxPort': 80, u'NginxHTTPSConfig': u'ssl.s1.conf', u'DBType': u'mysql', u'ApacheConfScale': u'/etc/httpd/bx-scale/conf/default.conf', u'ApacheConf': u'/etc/httpd/bx/conf/default.conf', u'DBPassword': u'***************', u'BackupDay': u'', u'module_main_version': u'17.5.4', u'CompositeStatus': u'disable', u'BackupMinute': u'', u'NginxHTTPEDir': u'/etc/nginx/bx/site_enabled', u'CompositeDomains': [], u'SphinxConnection': u'127.0.0.1:9306', u'DocumentRoot': u'/home/bitrix/www', u'HTTPSCert': u'/etc/nginx/ssl/cert.pem', u'message': u'', u'BackupTask': u'disable', u'DBConn': u'Y', u'SiteShort': u'default', u'module_message': u'', u'SiteCsync2': u'default', u'CronFile': u'', u'module_scale': u'installed', u'SiteName': u'default', u'HTTPSCertChain': u'', u'proxy_ignore_client_abort': u'off', u'SiteKernelDir': u'', u'CompositeIncludeUri': [], u'CompositeMemcachedPort': u'', u'SiteStatus': u'finished', u'BackupFolder': u'', u'SMTPPort': u'25', u'NTLM_use_ntlm': u'N', u'DBHost': u'localhost', u'SiteInstall': u'kernel', u'NginxHTTPConfig': u's1.conf', u'DBLogin': u'bitrix0', u'BackupMonth': u'', u'phpSessionDir': u'/tmp/php_sessions/www', u'ModuleScale': u'', u'CompositeExcludeUri': [], u'EmailAccount': u'default', u'ServerName': u'portal.sbgs.ru', u'error': 0, u'NTLM_module': u'Y', u'SiteCharset': u'utf-8', u'phpUploadDir': u'/tmp/php_upload/www', u'NginxType': u'single', u'HTTPS': u'disable', u'CompositeError': u'', u'HTTPSCertType': u'general', u'CompositeMemcachedHost': u'', u'BackupCronFile': u'', u'CompositeNginxID': u'02', u'module_cluster': u'installed', u'NginxHTTPSFullPath': u'/etc/nginx/bx/site_avaliable/ssl.s1.conf', u'NTLM_bitrixvm_auth_support': u'N', u'BackupHour': u'', u'SMTPPassword': u'***************', u'SphinxIndexName': u'bitrix', u'CompositeNginx': u'disable', u'CompositeStorage': u'', u'SMTPTLS': u'on', u'BackupWeekDay': u'', u'BackupVersion': u'', u'SMTPUser': u'', u'ModuleCluster': u'', u'EmailAddress': u'', u'DBName': u'sitemanager', u'SMTPHost': u'smtp.timeweb.ru', u'HTTPSPriv': u'/etc/nginx/ssl/cert.pem', u'phpMsmtpAccount': u'default', u'CompositeNginxMap': u'', u'SiteKernelDB': u'', u'NginxHTTPDir': u'/etc/nginx/bx/site_avaliable', u'CronService': {}, u'HTTPSConf': u'/etc/nginx/bx/conf/ssl.conf'}) TASK [web : delete include] **************************************************** TASK [web : update site config] ************************************************ TASK [web : restart nginx] ***************************************************** fatal: [portal]: FAILED! => {"changed": false, "failed": true, "msg": "Unable to start service nginx: Job for nginx.service failed because the control process exited with error code. See \"systemctl status nginx.service\" and \"journalctl -xe\" for details.\n"} NO MORE HOSTS LEFT ************************************************************* to retry, use: --limit @/etc/ansible/web.retry PLAY RECAP ********************************************************************* portal : ok=15 changed=4 unreachable=0 failed=1 |
|||
|
|
|
|
|||
|
|
|