Вопросик - есть в kerio такое меню Архивирование и Резервное копирование. Так вот сделал я резервное копирование а как в случае чего восстановиться с этой резервной копии? Каков порядок действий?
» Kerio Connect (ex Kerio MailServer)
pubuser
смотри тут: http://kb.kerio.com/1142
смотри тут: http://kb.kerio.com/1142
Спасибо, покурю мануал этот)).
Кто нибудь знает как решить следующую проблемку в Керио Коннект 8.4.1.3789:
Nginx как фронтенд для web интерфейса kerio connect.
Конф.:
Код: server {
listen 80;
server_name srv.org;
root /usr/share/nginx/srv/www;
access_log /var/log/nginx/srv.log;
error_log /var/log/nginx/srv_error.log;
server_tokens off;
location / {
proxy_http_version 1.1;
proxy_pass_header Server;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header HOST $http_host;
proxy_pass http://192.168.0.2;
proxy_redirect off;
}
}
Nginx как фронтенд для web интерфейса kerio connect.
Конф.:
Код: server {
listen 80;
server_name srv.org;
root /usr/share/nginx/srv/www;
access_log /var/log/nginx/srv.log;
error_log /var/log/nginx/srv_error.log;
server_tokens off;
location / {
proxy_http_version 1.1;
proxy_pass_header Server;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header HOST $http_host;
proxy_pass http://192.168.0.2;
proxy_redirect off;
}
}
У кого получилось сделать так, чтобы в kerio connet 8.3 (линуксовый на виртуалке) автоматически подключалась папка, которая расшарена на машинке под windows? Поделитесь, пожалуйста, опытом.
Спасибо.
Спасибо.
Valera19822014
Если имеется ввиду та виртуалка которая распространяется самими керио, то там дебиан
Код: Если не установлено, то устанавливаем cifs:
apt-get install cifs-utils
Подключаем шару:
mkdir /mnt/share
mount -t cifs -o username=<user>,password=<pass> //SERVER/share /mnt/share
Если же всё прошло нормально, то можно сделать автомонтирование шары:
echo //SERVER/share /mnt/share cifs user=SYSTEMUSERNAME,uid=1000,auto,exec,credentials=/etc/.smbpass 0 0 >> /etc/fstab
Далее создаем файл /etc/.smbpass
cat >/etc/.smbpass <<EOF
> username=
> password=
> EOF
Для отключения шары, набираем:
umount //SERVER/share
Если имеется ввиду та виртуалка которая распространяется самими керио, то там дебиан
Код: Если не установлено, то устанавливаем cifs:
apt-get install cifs-utils
Подключаем шару:
mkdir /mnt/share
mount -t cifs -o username=<user>,password=<pass> //SERVER/share /mnt/share
Если же всё прошло нормально, то можно сделать автомонтирование шары:
echo //SERVER/share /mnt/share cifs user=SYSTEMUSERNAME,uid=1000,auto,exec,credentials=/etc/.smbpass 0 0 >> /etc/fstab
Далее создаем файл /etc/.smbpass
cat >/etc/.smbpass <<EOF
> username=
> password=
> EOF
Для отключения шары, набираем:
umount //SERVER/share
есть ли возможность в коннекте синхронизировать письма в двух ящиках? Один ящик на сервере, другой гденить на mail.ru. Письма, приходящие на сервер должны дублироваться на mail.ru и с майла на сервер.
Заметка для тех кто юзает KMS за аппаратным роутером Mikrotik. При создании в фаерволе правил NAT для портов нужных (25/110/465/995 и прочих) нужно обязательно указать для проброшенных портов IN INTERFACE если есть другие интерфейсы кроме WAN и LAN, например входящие-исходящие PPTP. Иначе почта не ходит, сам убедился на опытном стенде с такой конфигурацией.
[more] [more] aZer
Спасибо за ответ. Сделал, все как написано. Шара монтируется нормально, если ручками. Но автомонтирование не проходит - при загрузке пишет ошибку и подключает пустую папку. Скрин ошибки ниже - что я делаю не так?
http://yadi.sk/i/4TxExBlSfHEzG
Цитата:
Спасибо за ответ. Сделал, все как написано. Шара монтируется нормально, если ручками. Но автомонтирование не проходит - при загрузке пишет ошибку и подключает пустую папку. Скрин ошибки ниже - что я делаю не так?
http://yadi.sk/i/4TxExBlSfHEzG
Цитата:
Valera19822014[/more] [/more]
Если имеется ввиду та виртуалка которая распространяется самими керио, то там дебиан
Код:
Если не установлено, то устанавливаем cifs:
apt-get install cifs-utils
Подключаем шару:
mkdir /mnt/share
mount -t cifs -o username=<user>,password=<pass> //SERVER/share /mnt/share
Если же всё прошло нормально, то можно сделать автомонтирование шары:
echo //SERVER/share /mnt/share cifs user=SYSTEMUSERNAME,uid=1000,auto,exec,credentials=/etc/.smbpass 0 0 >> /etc/fstab
Далее создаем файл /etc/.smbpass
cat >/etc/.smbpass <<EOF
> username=
> password=
> EOF
Для отключения шары, набираем:
umount //SERVER/share
Valera19822014
error 13 = permission denied
error 13 = permission denied
Подскажите в логах керио в разделе Security
Вижу вот такие логи
1. SMTP Spam attack detected from 104.152.52.73, client sent data before SMTP greeting
и вот такое
2 User XXX@XXX.com doesn't exist. Attempt from IP address 211.20.234.118.
POP3: AntiHammering - IP address 211.20.234.118 will be blocked for 5 minutes, too many failed logins from this
Failed POP3 login from 211-20-234-118.hinet-ip.hinet.net, user XXX@XXXX.com.
POP3: AntiHammering: connection from IP address 211.20.234.118 is blocked
POP3: AntiHammering: connection from IP address 211.20.234.118 is blocked
Тут все понятно если взять и занести эти все ip--шники а лучше прямо целые подсети в BlackList
104.0.0.0 - 104.255.255.255
И вот так
211.20.0.0 - 211.20.255.255
Когда срабатывает правило Black List ?
Может лутше сразу рубить все на корню на шлюзе ? Дропать все пакеты по всем портам приходящие с данных подсетей ?
Что подскажите ?
Не кто не проверял как на микротике отрабатывает данные правила
Ссылка
В качестве шлюза стоит MikroTik RB450G
Вижу вот такие логи
1. SMTP Spam attack detected from 104.152.52.73, client sent data before SMTP greeting
и вот такое
2 User XXX@XXX.com doesn't exist. Attempt from IP address 211.20.234.118.
POP3: AntiHammering - IP address 211.20.234.118 will be blocked for 5 minutes, too many failed logins from this
Failed POP3 login from 211-20-234-118.hinet-ip.hinet.net, user XXX@XXXX.com.
POP3: AntiHammering: connection from IP address 211.20.234.118 is blocked
POP3: AntiHammering: connection from IP address 211.20.234.118 is blocked
Тут все понятно если взять и занести эти все ip--шники а лучше прямо целые подсети в BlackList
104.0.0.0 - 104.255.255.255
И вот так
211.20.0.0 - 211.20.255.255
Когда срабатывает правило Black List ?
Может лутше сразу рубить все на корню на шлюзе ? Дропать все пакеты по всем портам приходящие с данных подсетей ?
Что подскажите ?
Не кто не проверял как на микротике отрабатывает данные правила
Ссылка
В качестве шлюза стоит MikroTik RB450G
Вообще дропать все на микроте - правильное православное решение. Но зависит от пользователей. Если есть шансы что нужные юзеры могут попытаться войти с самых разных подсетей то глупо составлять огромный список правил. А если юзеров не много и все они идут из известных подсетей то дропать на микроте без всякой жалости. Особенно касается доступа к http серверу - как пользовательскому так и админской части.
p.s. Кстати насчет микрота - спасибо за идею, пробну покрутить что нибудь такое, дабы попытки пробиться на smtp или pop\imap попадали в бан средствами микрота надолго))) Желательно на десяток месяцев)) Ибо нефиг!
p.s. Кстати насчет микрота - спасибо за идею, пробну покрутить что нибудь такое, дабы попытки пробиться на smtp или pop\imap попадали в бан средствами микрота надолго))) Желательно на десяток месяцев)) Ибо нефиг!
Привет всем.
Чего то я копаю и накак в толк не возьму, как автоочистка по POP работает.
Собственно что у меня и что меня волнует.
Есть Kerio Connect 7.3 Сборка 5623. Есть ящики, пока тока тестовые. Сервак используется как запасное хранилище почты внутри компании. Из клиентов к нему никто не обращается, а он тока втихую собирает копии почты с внешних ящиков.
Так вот что напрягает интересует.
На данный момент у меня ни при каких настройках не удаляется почта с внешних ящиков
POP3Delete стоит 1
Меня это устраивает и это даже то что мне нужно.
Единственное меня пугает это ключ, вдруг он возьмет и сработает.
Знаю, что если его поставить в 0, то будут глюки с дублированием писем.
Собственно вопрос, кто как делает чтобы 100% НЕ УДАЛЯЛО.
Чего то я копаю и накак в толк не возьму, как автоочистка по POP работает.
Собственно что у меня и что меня волнует.
Есть Kerio Connect 7.3 Сборка 5623. Есть ящики, пока тока тестовые. Сервак используется как запасное хранилище почты внутри компании. Из клиентов к нему никто не обращается, а он тока втихую собирает копии почты с внешних ящиков.
Так вот что напрягает интересует.
На данный момент у меня ни при каких настройках не удаляется почта с внешних ящиков
POP3Delete стоит 1
Меня это устраивает и это даже то что мне нужно.
Единственное меня пугает это ключ, вдруг он возьмет и сработает.
Знаю, что если его поставить в 0, то будут глюки с дублированием писем.
Собственно вопрос, кто как делает чтобы 100% НЕ УДАЛЯЛО.
antarasov82
Цитата:
Цитата:
Собственно вопрос, кто как делает чтобы 100% НЕ УДАЛЯЛО.Для этого давным-давно люди придумали протокол IMAP
vlary
IMAP мне как раз не нужен. По нему они своих локальных клиентов с внешими ящиками соединили и все работает.
им нужно для внутреннего хранения, чтобы копия собиралась и не более того. чобы если там чего то пропадет, локально ничего бы не было и всегда без проблем можно было бы забрать.
Поэтому и сделал POP, а тут такие странности.
IMAP мне как раз не нужен. По нему они своих локальных клиентов с внешими ящиками соединили и все работает.
им нужно для внутреннего хранения, чтобы копия собиралась и не более того. чобы если там чего то пропадет, локально ничего бы не было и всегда без проблем можно было бы забрать.
Поэтому и сделал POP, а тут такие странности.
Яндекс изменил алгоритм POP 3 теперь при удалении\собирании почты по POP 3 все равно письма остаются на сервере. Тоже с этим столкнулся - написал в саппорт получил такой вот ответ, что теперь почта не будет удаляться, юзайте-де имап и будет счастье. Послал яндекс в пешую эротическую прогулку после этого. Гугломайл вроде таким пока не начал страдать, но не удивлюсь что другие фришные почтовики тоже самое проделали со своим POP 3 протоколом.
antarasov82
Цитата:
либо папку на Керио. Делается даже просто мышкой .
Либо, если есть линукс в сети, написать перл скрипт, который будет
периодически перетаскивать письма с внешних серверов на внутренний.
Можно конечно и сделать прогу на Си шарп, повесить ее на том же серваке, где Керио в задания.
Но это значительно сложнее для неподготовленных.
Цитата:
По нему они своих локальных клиентов с внешими ящиками соединили и все работает.Ну так пусть сами перетаскивают важные письма в локальную папку
либо папку на Керио. Делается даже просто мышкой .
Либо, если есть линукс в сети, написать перл скрипт, который будет
периодически перетаскивать письма с внешних серверов на внутренний.
Можно конечно и сделать прогу на Си шарп, повесить ее на том же серваке, где Керио в задания.
Но это значительно сложнее для неподготовленных.
pubuser
Спасибо за информацию. Хоть вам это и не нравится, это то, что мне нужно.
vlary
Пользователи они и есть пользователи. Кто то забудет. коиу то некогда будет. А тут полная автоматизация и в случае чего всегда восстановить можно будет
Спасибо за информацию. Хоть вам это и не нравится, это то, что мне нужно.
vlary
Пользователи они и есть пользователи. Кто то забудет. коиу то некогда будет. А тут полная автоматизация и в случае чего всегда восстановить можно будет
Решение отказоустойчивого Mail Server от Kerio
Есть вопрос, пока не сделано, но вдруг чего-то не учел, прошу поправить....
В работе есть почтовик, виртуальная машина, HDD 1.5 Tb, является главным MX
У пользователей все клиенты почтовые настроены на него
Дано 2 ESXi 5.5 объединены Distributed Switch, общей системы хранения нет. Все VM на хостах принадлежат одной сети допустим 192.168.5.0
Разворачиваем Kerio Connect из vmware appliance, ставим CEPH, настраиваем
Разворачиваем 6 нод кластера CEPH для хранения Mailstorage, по 3 на каждой ноде ESXi
Подключаем в fstab /opt/kerio HDD организованный на хранилище CEPH
Клонируем VM Kerio на вторую ноду ESXi, потом в работе будет только один,
клонированный в резерве, настройки одинаковые fstab
# rbd create --size 10000 test
# rbd map test
# mkfs.ext4 -q /dev/rbd1
# mount /dev/rbd1 /opt
# df -h /opt
Filesystem Size Used Avail Use% Mounted on
/dev/rbd1 9.5G 22M 9.0G 1% /opt
# blockdev --getsize64 /dev/rbd1
10485760000
Если нужно - увеличиваем по потребностям
# rbd resize --size 20000 test
Resizing image: 100% complete...done.
# blockdev --getsize64 /dev/rbd1
20971520000
# resize2fs /dev/rbd1
resize2fs 1.42 (29-Nov-2011)
Filesystem at /dev/rbd1 is mounted on /opt; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 2
The filesystem on /dev/rbd1 is now 5120000 blocks long.
# df -h /opt
Filesystem Size Used Avail Use% Mounted on
/dev/rbd1 20G 27M 19G 1% /opt
Размещаем бэкап существующей почты, копируем структуру каталогов, если чего-то не хватает *.cfg (все что должно быть).
Тушим основной, запускаем в работу подготовленное решение, после отсутствия граблей избавляемся от него... Месяца через два
Понятно что навернуто, но у меня пока нет мыслей как избавиться от излишнего дублирования - по другому варианту дублировать VM (хоть VeamBackup, хоть Trelead VM Explorer) это 2*размер VMDK диска керио, при потребности увеличить хранилище, нужно останавливать почтовик, либо LVM делать, что не исключает, допустим, физической недоступности одной ноды ESXi, тогда почтовик будет недоступен, и придется запускать копию. Если поднимать из backup то уйдет 12-18 ч, потом синхронизация аккаунтов и другие подводные камни (все зависит когда было сделано последнее резервирование самой виртуалки). Вариант подготовительного решения для последующего ухода от ESXi на Proxmox+CEPH, тк средств на систему хранения нет. Останется потом только скопировать HDD mailstorage скопировать в новый кластер Proxmox+Ceph, сконвертировать 2 виртуалки Kerio для KVM, отказаться от 6 нод хранилища скластера.
В данном решении на период недоступности одного из хостов ESXi отвалятся 3 ноды CEPH, кластер будет в состоянии Degraded, можно будет позже на скорую руку еще ноды прицепить (это частности), зато данные будут актуальны, и перебой в работе максимум на период включения резервного, в это время почта лежит у провайдера, где МХ больше. Размер хранилища можно добавлять \ убирать на лету.
MailBackup в другой датацентр конечно же не отменяется, может быть всякое...
Подобное решение рассмотрено здесь https://sys4.de/de/blog/2013/06/06/postfix-dovecot-ceph-cluster-storage/
Есть вопрос, пока не сделано, но вдруг чего-то не учел, прошу поправить....
В работе есть почтовик, виртуальная машина, HDD 1.5 Tb, является главным MX
У пользователей все клиенты почтовые настроены на него
Дано 2 ESXi 5.5 объединены Distributed Switch, общей системы хранения нет. Все VM на хостах принадлежат одной сети допустим 192.168.5.0
Разворачиваем Kerio Connect из vmware appliance, ставим CEPH, настраиваем
Разворачиваем 6 нод кластера CEPH для хранения Mailstorage, по 3 на каждой ноде ESXi
Подключаем в fstab /opt/kerio HDD организованный на хранилище CEPH
Клонируем VM Kerio на вторую ноду ESXi, потом в работе будет только один,
клонированный в резерве, настройки одинаковые fstab
# rbd create --size 10000 test
# rbd map test
# mkfs.ext4 -q /dev/rbd1
# mount /dev/rbd1 /opt
# df -h /opt
Filesystem Size Used Avail Use% Mounted on
/dev/rbd1 9.5G 22M 9.0G 1% /opt
# blockdev --getsize64 /dev/rbd1
10485760000
Если нужно - увеличиваем по потребностям
# rbd resize --size 20000 test
Resizing image: 100% complete...done.
# blockdev --getsize64 /dev/rbd1
20971520000
# resize2fs /dev/rbd1
resize2fs 1.42 (29-Nov-2011)
Filesystem at /dev/rbd1 is mounted on /opt; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 2
The filesystem on /dev/rbd1 is now 5120000 blocks long.
# df -h /opt
Filesystem Size Used Avail Use% Mounted on
/dev/rbd1 20G 27M 19G 1% /opt
Размещаем бэкап существующей почты, копируем структуру каталогов, если чего-то не хватает *.cfg (все что должно быть).
Тушим основной, запускаем в работу подготовленное решение, после отсутствия граблей избавляемся от него... Месяца через два
Понятно что навернуто, но у меня пока нет мыслей как избавиться от излишнего дублирования - по другому варианту дублировать VM (хоть VeamBackup, хоть Trelead VM Explorer) это 2*размер VMDK диска керио, при потребности увеличить хранилище, нужно останавливать почтовик, либо LVM делать, что не исключает, допустим, физической недоступности одной ноды ESXi, тогда почтовик будет недоступен, и придется запускать копию. Если поднимать из backup то уйдет 12-18 ч, потом синхронизация аккаунтов и другие подводные камни (все зависит когда было сделано последнее резервирование самой виртуалки). Вариант подготовительного решения для последующего ухода от ESXi на Proxmox+CEPH, тк средств на систему хранения нет. Останется потом только скопировать HDD mailstorage скопировать в новый кластер Proxmox+Ceph, сконвертировать 2 виртуалки Kerio для KVM, отказаться от 6 нод хранилища скластера.
В данном решении на период недоступности одного из хостов ESXi отвалятся 3 ноды CEPH, кластер будет в состоянии Degraded, можно будет позже на скорую руку еще ноды прицепить (это частности), зато данные будут актуальны, и перебой в работе максимум на период включения резервного, в это время почта лежит у провайдера, где МХ больше. Размер хранилища можно добавлять \ убирать на лету.
MailBackup в другой датацентр конечно же не отменяется, может быть всякое...
Подобное решение рассмотрено здесь https://sys4.de/de/blog/2013/06/06/postfix-dovecot-ceph-cluster-storage/
Уважаемые форумчане, подскажите пожалуйста новичку!
Появилась проблема. На почтовом сервере Kerio создано несколько доменов. Есть один основной домен. Вроде всё нормально работает. Но вот при создании нового пользователя в неосновном домене, начинаются проблемы. При настройки Outlook подключения через Kerio почему то выдаёт сообщение о том что не верно введён пароль или имя пользователя. При просмотре логов на почтовом сервере, в вкладке "безопасность" пишет следующее сообщение "HTTP/KOFF: User busov.e@opniipkd.by doesn't exist. Attempt from IP address 192.168.0.186". При этом если создать пользователя в основном домене, всё прекрасно настраивается и работает. В этой организации работаю недавно, до этого с Kerio не работал.
Появилась проблема. На почтовом сервере Kerio создано несколько доменов. Есть один основной домен. Вроде всё нормально работает. Но вот при создании нового пользователя в неосновном домене, начинаются проблемы. При настройки Outlook подключения через Kerio почему то выдаёт сообщение о том что не верно введён пароль или имя пользователя. При просмотре логов на почтовом сервере, в вкладке "безопасность" пишет следующее сообщение "HTTP/KOFF: User busov.e@opniipkd.by doesn't exist. Attempt from IP address 192.168.0.186". При этом если создать пользователя в основном домене, всё прекрасно настраивается и работает. В этой организации работаю недавно, до этого с Kerio не работал.
Подскажите, как с виндовой версии "перейти" на appliance?
winscp по ssh и заливать бэкап? или есть попроще способ?
winscp по ssh и заливать бэкап? или есть попроще способ?
По поводу основного и дочернего домена
login
pass на основной
login@domen.zone
pass на дочерние
______________________
Вопрос про appliance
115 страница, ключевые слова поиска mount cifs
login
pass на основной
login@domen.zone
pass на дочерние
______________________
Вопрос про appliance
115 страница, ключевые слова поиска mount cifs
С толкнулся с проблемой. Kerio Connect 8.x установлен на Windows 2008R2. В системе установлен часовой пояс (UTC+10:00) Владивосток, Магадан (RTZ9) - новая зона, которой раньше не было.
В итоге Kerio Connect показывает на час больше (в логах, im-сообщениях, письмах). На сайте нашёл статью http://kb.kerio.com/product/kerio-connect/server-configuration/changing-the-time-zone-definitions-in-timezonesxml-file-in-kerio-connect-264.html
У меня последняя версия timezones.xml, но видимо Kerio ещё не вносила никаких изменений. Руками вносил правки, но почему то всё равно Kerio Connect их не съедает. Подозреваю, что новая зона в системе как то по другому называется и Kerio Connect не верно применяет правило.
Буду рад любой помощи в решении этого вопроса. Спасибо.
В итоге Kerio Connect показывает на час больше (в логах, im-сообщениях, письмах). На сайте нашёл статью http://kb.kerio.com/product/kerio-connect/server-configuration/changing-the-time-zone-definitions-in-timezonesxml-file-in-kerio-connect-264.html
У меня последняя версия timezones.xml, но видимо Kerio ещё не вносила никаких изменений. Руками вносил правки, но почему то всё равно Kerio Connect их не съедает. Подозреваю, что новая зона в системе как то по другому называется и Kerio Connect не верно применяет правило.
Буду рад любой помощи в решении этого вопроса. Спасибо.
ldavlru Может в системе выставить таймзону (UTC+10:00) Гуам, Порт-Морсби ? У нее нет перевода времени. Я серваки с w2k3 не патчил на новые таймзоны, просто выбрал подходящую без переходов зима/лето и всё! Проблем нет.
Много интересного по сабжу: http://aplawrence.com/cgi-bin/indexget.pl?arg=Kerio
в логах появаились такие записи
Цитата:
почта от меня ко мне же, это как ? еще и с POP3 загружается .
почта у нас от провайдера по POP3 загружается, с домена идет переадресация на почту domen@optima.com.ua и оттуда к нам по POP3 (не спрашивайте почему так)
вот последнее письмо
Цитата:
вчера именно в это время было много таких писем
Цитата:
[07/Apr/2015 18:03:01] Recv: Queue-ID: 5523f1a5-0000e517, Service: POP3, From: <v-cocgjcf_bijaickfoj_chgdaagl_chgdaagl_a@bounce.next-retailint.mkt5142.com>, To: <peresunko@my-domain.ua>, Size: 64012, server mail.optima.ua, user continent-domen@optima.com.ua, mailbox {Received}
[07/Apr/2015 18:03:01] Recv: Queue-ID: 5523f1a5-0000e518, Service: POP3, From: <demyanenko@my-domain.ua>, To: <spam3@my-domain.ua>, Size: 3705, server mail.optima.ua, user continent-domen@optima.com.ua, mailbox {Received}
[07/Apr/2015 18:03:01] Recv: Queue-ID: 5523f1a5-0000e519, Service: POP3, From: <evelineapril@my-domain.ua>, To: <spam3@my-domain.ua>, Size: 2081, server mail.optima.ua, user continent-domen@optima.com.ua, mailbox {Received}
[07/Apr/2015 18:03:02] Recv: Queue-ID: 5523f1a5-0000e51a, Service: POP3, From: <ml-bounce-newsletter@mlcampaignru.com>, To: <dzhur@my-domain.ua>, Size: 44576, server mail.optima.ua, user continent-domen@optima.com.ua, mailbox {Received}
[07/Apr/2015 18:04:07] Recv: Queue-ID: 5523f1e7-0000e51e, Service: POP3, From: <shestakova@dnepr-company.dp.ua>, To: <shestakova@dnepr-company.dp.ua>, Size: 1417, server mail.optima.ua, user continent-domen@optima.com.ua, mailbox {Received}
почта от меня ко мне же, это как ? еще и с POP3 загружается .
почта у нас от провайдера по POP3 загружается, с домена идет переадресация на почту domen@optima.com.ua и оттуда к нам по POP3 (не спрашивайте почему так)
вот последнее письмо
Цитата:
Return-Path: <shestakova@my-domain.ua>
X-Envelope-To: shestakova@my-domain.ua
X-Drweb-SpamState:no
X-Drweb-SpamScore:15
X-DrWeb-SpamReason:^A301-01 (15)
X-Drweb-SpamVersion:Vade Retro 01.342.08 AV+AS Profile: <none>; Bailout: 300
X-Envelope-To: shestakova@my-domain.ua
Return-Path: <shestakova@my-domain.ua>
Received: from [222.252.90.91] (HELO localhost)
by mail.alkar.net (CommuniGate Pro SMTP 5.2.20)
with ESMTP id 998986405 for shestakova@my-domain.ua; Tue, 07 Apr 2015 18:03:10 +0300
Message-ID: <20F59971154C1DFD2844ACC891C020F5@my-domain.ua>
From: <shestakova@my-domain.ua>
To: <shestakova@my-domain.ua>
Subject: Have you seen this yet?
Date: 8 Apr 2015 05:49:57 +0700
MIME-Version: 1.0
Content-Type: multipart/alternative; boundary="---------9379919281519244"
X-Mailer: Ddwnidqq bdjglg 6.5
This is a multi-part message in MIME format.
-----------9379919281519244
Content-Type: text/plain; charset="windows-1250"
Content-Transfer-Encoding: quoted-printable
Housewives can make good money!
Learn how to =3D>
-----------9379919281519244
Content-Type: text/html; charset="windows-1250"
Content-Transfer-Encoding: quoted-printable
<html>
<head>
<meta Http-Equiv=3DContent-Type content=3D"text/html; =
charset=3Dwindows-1250"></head>
<body>Housewives can make good money!<br><br>
<a href=3D"httP://webtradeonline.com"><b>Learn how to =3D></b></a>
</body></html>
-----------9379919281519244--
вчера именно в это время было много таких писем
Maza777
Цитата:
Твой обратный адрес для спамера ничем не хуже любого другого.
Service: POP3 - тоже понятно, поскольку получено письмо не по SMTP,
а загружено с провайдерского сервера.
А провайдер получил его с компа спамера который где-во Вьетнаме. Ботнет, скорее всего.
Цитата:
почта от меня ко мне же, это как ?А чему ты удивляешься? Первый раз с этим сталкиваешься?
Твой обратный адрес для спамера ничем не хуже любого другого.
Service: POP3 - тоже понятно, поскольку получено письмо не по SMTP,
а загружено с провайдерского сервера.
А провайдер получил его с компа спамера который где-во Вьетнаме. Ботнет, скорее всего.
vlary
я испугался что от меня рассылают спам
я испугался что от меня рассылают спам
Maza777
Цитата:
Заголовки писем и логи сервера - наше все.
Цитата:
я испугался что от меня рассылают спамВолков бояться - в лесу не е...ся.
Заголовки писем и логи сервера - наше все.
Может тут кто подскажет по проблеме с "Kerio Outlook Connector". Точнее, с его Offline версией - KOFF
http://forum.ru-board.com/topic.cgi?forum=5&topic=31275#6
http://forum.ru-board.com/topic.cgi?forum=5&topic=31275#6
Страницы: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139
Предыдущая тема: Microsoft ISA Server 2006/2004/2000 & TMG/UAG (Часть 4)
Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.