ارسل ملاحظاتك

ارسل ملاحظاتك لنا







تحليل المواقع والتوصيلات للبرامج الخبيثة Analyzing Websites and Hyperlinks for Malicious Codes

المصدر: مجلة المنصور
الناشر: كلية المنصور الجامعة
المؤلف الرئيسي: مصطفى، مصطفى صباح (مؤلف)
المجلد/العدد: ع 13
محكمة: نعم
الدولة: العراق
التاريخ الميلادي: 2010
الصفحات: 82 - 105
DOI: 10.36541/0231-000-013-007
ISSN: 1819-6489
رقم MD: 448685
نوع المحتوى: بحوث ومقالات
قواعد المعلومات: EcoLink, HumanIndex
مواضيع:
رابط المحتوى:
صورة الغلاف QR قانون
حفظ في:
المستخلص: كما نعلم بان الانترنيت أصبح شبكة واسعة الاستخدام، تحتوي على أنواع عديدة من الأوساط المتعددة كالوثائق والبرامج والمواقع، لهذا السبب انه من الأصعب ادامتها كبيئة خالية من التخريب، هذه البرامج الخبيثة تكون مخفية داخل مواقع ذات مظهر برئ، هذه المواقع بدورها واسعة الانتشار، وهي صفة مهمة للبرامج الخبيثة كي تعتمد عليها للوصول إلى أكبر عدد من المستخدمين. الهدف الرئيسي من هذا البحث هو إيجاد وكشف البرامج الخبيثة في مواقع الانترنيت، ولان هذه البرامج والمبرمجين المخربين منتشرون بكثرة فان الحاجة لهذه الاداة أصبحت حقيقة واضحة، الموقع المستهدف يتم تحليله لكشف وجود هذه البرامجيات الخبيثة فاذا لم يجد هذه البرامجيات فيه فيتم تتبع الوصلات بصورة مفردة لفحص هل البرامج موجودة بصورة غير مباشرة، هذه الطريقة مفيدة في المواقع ذات الانتشار السريع. يتم تشغيل النظام المقترح على الخادم الرئيسي عندما يقوم المستخدم بطلب تحميل صفحة فهذا الطلب يتم ارساله أولا إلى الخادم ثم يتبع هذا المسار ويتفحص المحتويات لذلك الموقع متتبعا كل الوصلات الثانوية فاذا كان الموقع نظيف (أي خالي من البرامج الخبيثة) فان الخادم يسمح باستخدام ذلك الموقع والافسيقوم بكشفها ويكشف نوعها ويهيئ تقرير للمستخدم عن نوع الإصابة كرسالة تحذيرية في الموقع الخاص بالفحص ويحسب الوقت المستغرق لإيجادها.

As we all know Internet is a very widely used network, containing different types of multimedia, documents, programs and websites, for that reason it is difficult to maintain it as a malicious-free environment, these malicious codes are embedded into an innocent looking website, these websites in turn are very wide spread sites. An important feature a malicious code depends on reaching to as many users as it can get. This paper implemented generally to find and detect a malicious code in Internet websites, because of the wide spread of vandal users and malicious programs, the need for that tool has become a flat fact. A targeted website is analyzed for existing code and if that code is does not exist then its links are followed individually to check whether or not there is an indirect malicious code, this approach is useful in rapidly growing websites. The application is run on the server and when the client makes its request to load a website this request is sent first to the server then the system follows that on line to internet by (URL) and checks the contents of its website and follows all its sub-links in that website then if the website is clean (malicious free) then the client is granted access to that site, otherwise the system prints a warning message to the user containing the type of the malicious code and the time required to detect the infection.

وصف العنصر: ملخص لبحث منشور باللغة الانجليزية
ISSN: 1819-6489