Как да добавим delay в postfix
В /etc/postfix/main.cf добавяме:
smtp_destination_rate_delay = 1s |
След като изпрати 1 мейл, postfix ще направим пауза от 1 секунда и тогава ще изпрати другите.
В /etc/postfix/main.cf добавяме:
smtp_destination_rate_delay = 1s |
След като изпрати 1 мейл, postfix ще направим пауза от 1 секунда и тогава ще изпрати другите.
Във файла /etc/apache2/sites-available/website.conf пишем:
SSLEngine on SSLCertificateFile /etc/ssl/crt/primary.crt SSLCertificateKeyFile /etc/ssl/crt/private.key SSLCertificateChainFile /etc/ssl/crt/intermediate.crt |
Това са моите бележки, направени по време на PHP UK Conference 2014.
Надявам се някой ден да имам време да наипиша още 2-3 изречения по всяка от темите.
OPcache
——-
nginx + php-cgi
deploy – start a new php-cgi processes and then switch nginx to use it
—————–
Profiling PHP app
—————–
codestash
graphite (graphics)
js tool to measure client side
for consumer/user point of view, best TTL is less than 1 sec.
minify css + jss, concatenate css+js
enable opcache
cdn
gzip
memcached/redis
php 5.5
spdy ???
image compression
compress html
yslow
enable dns prefetch
chmod g+rw -R folder/ |
Това като цяло са елементарни неща, но понякога човек като зацикли не се сеща дори и за тях. Затова, ето един пост с цел да си напомням за вбъдеще и да го намирам лесно, когато ми потрябва.
find /full/path/to/files/ -mtime +5 -exec rm {} \; |
+5 в случея означава, че ще изтрием всички файлове в посочената директория по-стари от 5 дни.
За nano:
export EDITOR=nano |
За vim:
export EDITOR=vim |
С какво разполагаме:
1 х Ubuntu сървър някъде по света (с моя случай вкъщи, но разстоянието и местонахождението нямат значение. Както бях споменал преди, имам setup-ната машина, на която да си играя)
1 x Mac OS X Time Machine
N x файлове с данни, които трябва да се бекъпнат.
ВНИМАНИЕ!
Потребителят, който създаваме по-долу има достъп и през SSH. Целта на тази статия НЕ е защита и jail на потребители, а само лесно и практично решение.
Ето и командите в последователен ред.
Ubuntu:
Инсталираме малко софтуер
sudo apt-get install netatalk avahi-daemon |
Правим директория, в която да се съхраняват Time Machine бекъпите
mkdir /backups/timemachine/ |
Създаваме потребителско име с парола за достъп до въпросната директория и даваме права за писане над тази директория
sudo useradd -d /backups/timemachine sudo chown timemachine:timemachine /backups/timemachine sudo passwd timemachine |
Последната команда ще ви поиска да въведете паролата на потребителя timemachine два пъти.
Редактираме файла /etc/netatalk/afpd.conf като на последният ред пишем това:
- -tcp -noddp -uamlist uams_randnum.so,uams_dhx.so,uams_dhx2.so -nosavepassword |
Във файла /etc/netatalk/AppleVolumes.default пишем следното, като имайте впредвид, че на мястото на [username] трябва да сложите потребителското име, което сте задали. В моя случай това е timemachine
/backups/timemachine TimeMachine allow:[username] cnidscheme:dbd options:usedots,upriv,tm |
Създаваме нов файл
nano /etc/avahi/services/afpd.service |
Със съдържание
<?xml version="1.0" standalone='no'?><!--*-nxml-*--> <!DOCTYPE service-group SYSTEM "avahi-service.dtd"> <service-group> <name replace-wildcards="yes">%h</name> <service> <type>_afpovertcp._tcp</type> <port>548</port> </service> <service> <type>_device-info._tcp</type> <port>0</port> <txt-record>model=MacPro</txt-record> </service> </service-group> |
Последната стъпка е да рестартираме services
/etc/init.d/netatalk restart /etc/init.d/avahi-daemon restart |
Mac OS X:
Използваме клавишна комбинация за да се свържем към Ubuntu сървъра – натиснете “cmd + k”. В прозореца, който ще видите, пишем:
afp://192.168.0.0 |
Като разбира се заменяте IP адреса с този на вашият Ubuntu server.
След като се свържем, затваряме прозореца.
Отваряме Time Machine settings. От там “Select disk” и избираме папката на вече готовият Ubuntu server.
Бекъпи на никого не са излишни и винаги са нужни.
Това е нещо интересно, което намерих “разхождайки” се в Интернет пространството: http://www.homedatacenterproject.com/
Собственика разказва историята на проекта още от самото начало, когато е започнал само с 2 машини, малко батерии, ток и още малко интернет връзка.
Доста се запалих по идеята, но не мисля, да я копирам. Поне не изцяло 🙂
Той предлага хостинг, а моята цел ще бъде remote backup. Нещо, което хората в днешно време подценяват, но в крайна сметка е нужно на ВСИЧКИ.
Да, сега ще кажете, че вече има Cloud hosting, който предотвратява загубата на данни, но пък моята таргет група не са обикновените хостинг клиенти. Работя изцяло с корпоративни клиенти, които знаят цената на backup-a и могат много добре да преценят последствията, от не използването на такъв.
Вярвате или не, напоследък се сблъсквам с доста компании, които по една или друга причина не използват бекъп, а всъщност предлагат услуги за милиони (буквално).
Внимание: Машините, с които започвам да си “играя” нямат общо с комерсиалната част на проекта www.server-backup.eu (засега)!
С какво разполагам до момента:
Motherboard: Gigabyte GA-P35-DS3R rev. 1.0, LGA 775/Socket T
GPU: XpertVision NVIDIA 7200GS PCI-E DDR2 VGA + DVI + TVO
HDD: 2 х 2 TB WD Green
OS HDD: 1 х 80 GB (обикновен диск)
OS: Debian Wheezy
CPU: Intel Pentium Dual-Core E2180 SLA8Y 2.00GHz/1M/800 Socket 775
CPU COOLER: Arctic Cooling Alpine 11 Rev. 2 CPU Cooler for Intel
RAM: 1 GB
POWER SUPPLY: FSP 350W ATX-350PNF
CASE: CIT Reaper Black Interior Mesh
В момента там е инсталирана базова версия на бекъп системата и се бекъпват само 2 лични сървъра. Тествам стабилността на връзката и скоростта й, защото за момента не е много добра/стабилна, което води до прекалено дълго време за да завърши всеки един от бекъп циклите.
Дори няма пуснат RAID. Нещо, което скоро трябва да променя. Най-малкото, ще пусна RAID 1, за да не си изгубя настройките ако нещо стане 🙂 Бекъп на бекъпа, ха-ха 🙂
Ето и един speedtest на връзката. Не е кой знае какво, но е ок. Трябва го тествам и с връзка от други краища на света…
Test Date: Jul 22, 2013 07:30 Download: 3855.9 kB/s Upload: 247.6 kB/s Ping: 45 ms Connection Type: Wi-Fi Server: Esslingen
Може би заглавието не е най-подходящото, но все пак…
Оставайки с малко свободно време, реших да се позабавлявам с камерата на компютъра си, но за съжаление след изморителният ден единственото, което ми хрумна е прекалено елементарно. Въпреки всички ще го споделя.
Идеята: Да се “самоснимам” на всеки час и преди да си тръгна, да видя през какви фази е преминал работният ми процес (ден). За момента на всички снимки изглеждам замислен или просто ме няма 🙂 (не, няма да ви дам линк! 🙂 )
0. Инсталираме streamer, ако все още липсва.
sudo apt-get install streamer |
За начало, един малък bash скрипт, който да ни снима 🙂
#!/bin/bash HOUR=`date +"%Y-%m-%d.%H.%M" streamer -f jpeg -o /path/to/picture/folder/$HOUR.jpeg |
Стъпка 2: Готово. Елементарно, нали?
От тук нататък, какво ще правите със снимките е изцяло ваш избор.
Това, което направих аз е да ги качвам на web server и от дам да ги гледам на slideshow. Просто за да не си липсвам 🙂
Ето и целият ми скрипт… скриптче:
#!/bin/bash HOUR=`date +"%Y-%m-%d.%H.%M"` streamer -f jpeg -o /path/to/picture/folder/$HOUR.jpeg rsync -ave "ssh -i /path/to/ssh/key" /path/to/picture/folder/ user@domain.com:/domain.com/public_html/webshots/ |
За да го сложите в crontab, трябва да си направите задължително SSH key, с който да минава rsync-a без да ви иска парола за връзка с domain.com