ساخت فایل روبوت
Robots.txt وظیفه داشته تا یک فایل ایجاد کند که کاملا برعکس نقشه سایت بوده تا نشان دهد که صفحاتی را شامل میشود. بنابراین داشتن Robots.txt برای هر سایت لازم است. زمانی که یک موتور جستجوگر وب، سایتی را بررسی می کند، اول فایل robots.txt را در سطح ریشه پیدا کرده و بعد از شناسایی آن، خزنده فایل را خوانده و در آخر فایل ها و دایرکتوری هایی که شاید مسدود شوند را پیدا می کند.
Speed Checkup Tools
بررسی سرعت سایت در ایران با مرورگرهای مختلف
Uptime Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
DNS Checkup Tools
ابزار تخصصی بررسی آنلاین وضعیت DNS
SEO Checkup Tools
بررسی کامل سئو و مقایسه آن با سایتهای رقیب
WHOIS Checkup Tools
بررسی وضعیت دامنه و نمایش مشخصات آن
IP Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
SSL Checkup Tools
بررسی کامل SSL/TLS و دیکد کردن CSR
Get Source Code of Webpage
مشاهده سورس کد یک صفحه
Google Index Checker
تعداد صفحات ایندکس شده در گوگل
Mozrank Checker
Mozrank بررسی
Article Rewriter
بازنویسی مقاله
AVG Antivirus Checker
بررسی سایت با AVG آنتی ویروس