المصدر: | مجلة المنصور |
---|---|
الناشر: | كلية المنصور الجامعة |
المؤلف الرئيسي: | مصطفى، مصطفى صباح (مؤلف) |
المؤلف الرئيسي (الإنجليزية): | Mustafa, Mustafa Sabah |
المجلد/العدد: | ع 13 |
محكمة: | نعم |
الدولة: |
العراق |
التاريخ الميلادي: |
2010
|
الصفحات: | 82 - 105 |
DOI: |
10.36541/0231-000-013-007 |
ISSN: |
1819-6489 |
رقم MD: | 448685 |
نوع المحتوى: | بحوث ومقالات |
قواعد المعلومات: | EcoLink, HumanIndex |
مواضيع: | |
رابط المحتوى: |
الناشر لهذه المادة لم يسمح بإتاحتها. |
LEADER | 04629nam a22002297a 4500 | ||
---|---|---|---|
001 | 1111345 | ||
024 | |3 10.36541/0231-000-013-007 | ||
044 | |b العراق | ||
100 | |9 316646 |a مصطفى، مصطفى صباح |e مؤلف |g Mustafa, Mustafa Sabah | ||
245 | |a تحليل المواقع والتوصيلات للبرامج الخبيثة |b Analyzing Websites and Hyperlinks for Malicious Codes | ||
260 | |b كلية المنصور الجامعة |c 2010 | ||
300 | |a 82 - 105 | ||
336 | |a بحوث ومقالات |b Article | ||
500 | |a ملخص لبحث منشور باللغة الانجليزية | ||
520 | |a كما نعلم بان الانترنيت أصبح شبكة واسعة الاستخدام، تحتوي على أنواع عديدة من الأوساط المتعددة كالوثائق والبرامج والمواقع، لهذا السبب انه من الأصعب ادامتها كبيئة خالية من التخريب، هذه البرامج الخبيثة تكون مخفية داخل مواقع ذات مظهر برئ، هذه المواقع بدورها واسعة الانتشار، وهي صفة مهمة للبرامج الخبيثة كي تعتمد عليها للوصول إلى أكبر عدد من المستخدمين. \ الهدف الرئيسي من هذا البحث هو إيجاد وكشف البرامج الخبيثة في مواقع الانترنيت، ولان هذه البرامج والمبرمجين المخربين منتشرون بكثرة فان الحاجة لهذه الاداة أصبحت حقيقة واضحة، الموقع المستهدف يتم تحليله لكشف وجود هذه البرامجيات الخبيثة فاذا لم يجد هذه البرامجيات فيه فيتم تتبع الوصلات بصورة مفردة لفحص هل البرامج موجودة بصورة غير مباشرة، هذه الطريقة مفيدة في المواقع ذات الانتشار السريع. \ يتم تشغيل النظام المقترح على الخادم الرئيسي عندما يقوم المستخدم بطلب تحميل صفحة فهذا الطلب يتم ارساله أولا إلى الخادم ثم يتبع هذا المسار ويتفحص المحتويات لذلك الموقع متتبعا كل الوصلات الثانوية فاذا كان الموقع نظيف (أي خالي من البرامج الخبيثة) فان الخادم يسمح باستخدام ذلك الموقع والافسيقوم بكشفها ويكشف نوعها ويهيئ تقرير للمستخدم عن نوع الإصابة كرسالة تحذيرية في الموقع الخاص بالفحص ويحسب الوقت المستغرق لإيجادها. |b As we all know Internet is a very widely used network, containing different types of multimedia, documents, programs and websites, for that reason it is difficult to maintain it as a malicious-free environment, these malicious codes are embedded into an innocent looking website, these websites in turn are very wide spread sites. An important feature a malicious code depends on reaching to as many users as it can get. \ This paper implemented generally to find and detect a malicious code in Internet websites, because of the wide spread of vandal users and malicious programs, the need for that tool has become a flat fact. A targeted website is analyzed for existing code and if that code is does not exist then its links are followed individually to check whether or not there is an indirect malicious code, this approach is useful in rapidly growing websites. \ The application is run on the server and when the client makes its request to load a website this request is sent first to the server then the system follows that on line to internet by (URL) and checks the contents of its website and follows all its sub-links in that website then if the website is clean (malicious free) then the client is granted access to that site, otherwise the system prints a warning message to the user containing the type of the malicious code and the time required to detect the infection. | ||
653 | |a المواقع النظيفة |a مستخلصات الابحاث |a المواقع الالكترونية |a الانترنت |a تحليل المواقع |a البرامج الخبيثة | ||
773 | |4 العلوم الإنسانية ، متعددة التخصصات |6 Humanities, Multidisciplinary |c 007 |e Al Mansour Journal |f Maǧallaẗ al-manṣūr |l 013 |m ع 13 |o 0231 |s مجلة المنصور |v 000 |x 1819-6489 | ||
856 | |u 0231-000-013-007.pdf | ||
930 | |d n |p y | ||
995 | |a EcoLink | ||
995 | |a HumanIndex | ||
999 | |c 448685 |d 448685 |