ساخت فایل روبوت
Robots.txt وظیفه داشته تا یک فایل ایجاد کند که کاملا برعکس نقشه سایت بوده تا نشان دهد که صفحاتی را شامل میشود. بنابراین داشتن Robots.txt برای هر سایت لازم است. زمانی که یک موتور جستجوگر وب، سایتی را بررسی می کند، اول فایل robots.txt را در سطح ریشه پیدا کرده و بعد از شناسایی آن، خزنده فایل را خوانده و در آخر فایل ها و دایرکتوری هایی که شاید مسدود شوند را پیدا می کند.
Speed Checkup Tools
بررسی سرعت سایت در ایران با مرورگرهای مختلف
Uptime Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
DNS Checkup Tools
ابزار تخصصی بررسی آنلاین وضعیت DNS
SEO Checkup Tools
بررسی کامل سئو و مقایسه آن با سایتهای رقیب
WHOIS Checkup Tools
بررسی وضعیت دامنه و نمایش مشخصات آن
IP Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
SSL Checkup Tools
بررسی کامل SSL/TLS و دیکد کردن CSR
Email Privacy
امنیت ایمیل
QR Code Decoder
QR Code Decoder
Domain into IP
نمایش آیپی سایت
Google Cache Checker
بررسی وضعیت کش در گوگل
Robots.txt Generator
ساخت فایل روبوت