ساخت فایل روبوت
Robots.txt وظیفه داشته تا یک فایل ایجاد کند که کاملا برعکس نقشه سایت بوده تا نشان دهد که صفحاتی را شامل میشود. بنابراین داشتن Robots.txt برای هر سایت لازم است. زمانی که یک موتور جستجوگر وب، سایتی را بررسی می کند، اول فایل robots.txt را در سطح ریشه پیدا کرده و بعد از شناسایی آن، خزنده فایل را خوانده و در آخر فایل ها و دایرکتوری هایی که شاید مسدود شوند را پیدا می کند.
Speed Checkup Tools
بررسی سرعت سایت در ایران با مرورگرهای مختلف
Uptime Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
DNS Checkup Tools
ابزار تخصصی بررسی آنلاین وضعیت DNS
SEO Checkup Tools
بررسی کامل سئو و مقایسه آن با سایتهای رقیب
WHOIS Checkup Tools
بررسی وضعیت دامنه و نمایش مشخصات آن
IP Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
SSL Checkup Tools
بررسی کامل SSL/TLS و دیکد کردن CSR
Open Graph Generator
ایجاد Open Graph
Email Privacy
امنیت ایمیل
Find DNS records
نمایش رکورد های DNS
Plagiarism Checker
بررسی سرقت ادبی