ساخت فایل روبوت
Robots.txt وظیفه داشته تا یک فایل ایجاد کند که کاملا برعکس نقشه سایت بوده تا نشان دهد که صفحاتی را شامل میشود. بنابراین داشتن Robots.txt برای هر سایت لازم است. زمانی که یک موتور جستجوگر وب، سایتی را بررسی می کند، اول فایل robots.txt را در سطح ریشه پیدا کرده و بعد از شناسایی آن، خزنده فایل را خوانده و در آخر فایل ها و دایرکتوری هایی که شاید مسدود شوند را پیدا می کند.
Speed Checkup Tools
بررسی سرعت سایت در ایران با مرورگرهای مختلف
Uptime Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
DNS Checkup Tools
ابزار تخصصی بررسی آنلاین وضعیت DNS
SEO Checkup Tools
بررسی کامل سئو و مقایسه آن با سایتهای رقیب
WHOIS Checkup Tools
بررسی وضعیت دامنه و نمایش مشخصات آن
IP Checkup Tools
مانيتورينگ آپتايم سايت، سرور و سرويس ها
SSL Checkup Tools
بررسی کامل SSL/TLS و دیکد کردن CSR
Reverse IP Domain Checker
پیدا کردن دامنه های با آیپی یکسان
SSL Checker
بررسی اعتبار SSL
Backlink Checker
بررسی بک لینک ها
Color Picker
انتخاب کننده رنگ
URL Encoder / Decoder
رمزگذاری یا رمزگشایی URL