ساخت فایل روبوت
Robots.txt وظیفه داشته تا یک فایل ایجاد کند که کاملا برعکس نقشه سایت بوده تا نشان دهد که صفحاتی را شامل میشود. بنابراین داشتن Robots.txt برای هر سایت لازم است. زمانی که یک موتور جستجوگر وب، سایتی را بررسی می کند، اول فایل robots.txt را در سطح ریشه پیدا کرده و بعد از شناسایی آن، خزنده فایل را خوانده و در آخر فایل ها و دایرکتوری هایی که شاید مسدود شوند را پیدا می کند.
Speed Checkup Tools
بررسی سرعت سایت در ایران با مرورگرهای مختلف
Uptime Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
DNS Checkup Tools
ابزار تخصصی بررسی آنلاین وضعیت DNS
SEO Checkup Tools
بررسی کامل سئو و مقایسه آن با سایتهای رقیب
WHOIS Checkup Tools
بررسی وضعیت دامنه و نمایش مشخصات آن
IP Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
SSL Checkup Tools
بررسی کامل SSL/TLS و دیکد کردن CSR
Bulk Domain Availability Checker
بررسی دسته جمعی هویز
Wordpress Theme Detector
یافتن قالب وردپرس
RGB to Hex
تبدیل RGB به Hex
Server Status Checker
بررسی وضعیت سرور
Word Counter
شمارنده کلمه ها