LEADER |
04825nam a22002657a 4500 |
001 |
1895479 |
024 |
|
|
|3 10.26389/AJSRP.C090221
|
041 |
|
|
|a ara
|
044 |
|
|
|b فلسطين
|
100 |
|
|
|9 617674
|a حسن، حسن علي
|g Hasan, Hasan Ali
|e مؤلف
|
245 |
|
|
|a تطوير خوارزمية لحذف الصور شبه المكررة في Hadoop
|
246 |
|
|
|a Develop an Algorithm to Delete Near-Duplicate Images in Hadoop
|
260 |
|
|
|b المركز القومي للبحوث
|c 2021
|g مارس
|
300 |
|
|
|a 1 - 11
|
336 |
|
|
|a بحوث ومقالات
|b Article
|
520 |
|
|
|a يطلق مفهوم الصور شبه المكررة على الصور التي تتعرض للضجيج، أو التي تم ضغطها، أو التي تنخفض دقتها نتيجة إرسالها، وغير ذلك من الصور التي يطبق عليها عمليات الصورة الرقمية. إن نظام التخزين المثالي يهدف للاستثمار الأمثل لمساحة التخزين، وذلك عن طريق إدارة وهيكلة وتنظيم البيانات بطريقة فعالة، بحيث يتم المحافظة على مساحة التخزين متضمنة معلومات قيمة ومفيدة، والتخلص من البيانات غير المفيدة. يسمى الحيز الذي تشغله البيانات غير المهمة بالمساحة الضائعة، وتزداد هذه المساحة بزيادة هذه البيانات، فيحصل هدراً في مساحة التخزين، مما يصعب من إدارة مساحة التخزين وتنظيم البيانات، الأمر الذي يؤثر على أداء النظام بشكل عام. يستخدم Hadoop لتخزين ومعالجة البيانات الضخمة، ويعتمد التفرع في تخزين البيانات، إذ يتم تقسيم البيانات إلى أجزاء (Blocks)، وتوزع هذه الأجزاء في أجهزة حاسوبية، تسمى هذه الأجهزة (Data Nodes) طور الباحثون تقنيات للتخلص من أجزاء البيانات المكررة، وذلك لتوفير مساحة تخزينية في نظامHadoop ، ولكن قد تحتوي كل عقدة حاسوبية على ملفات غير مهمة، فتشغل قسماً من هذه المساحة، لذلك سنقدم في هذا البحث تقنية لحذف الصور شبه المكررة المخزنة ضمن Data Nodes ، وذلك باستخدام تحويل جيب التمام المتقطع.DCT (Discrete Cosine Transform)
|
520 |
|
|
|b The concept of near-duplicate images refers to images that are subjected to noise, that have been compressed, or whose resolution is reduced as a result of their transmission, and other images to which digital image operations are applied. The ideal storage system aims to optimize the storage space, by managing, structuring and organizing data in an efficient manner, so that the storage space is preserved including valuable and useful information, and we get rid of useless data. The space occupied by insignificant data is called wasted space, and this space increases with the increase of these files, resulting in a waste of storage space, which makes it difficult to manage storage space and organize data, which affects the overall system performance. Hadoop is used to store and process big data, and depends on branching in storing data, as the data is divided into parts (blocks), and these parts are distributed in computer devices, called these devices (Data Nodes). Researchers have developed techniques to get rid of fragments of duplicate data, in order to save storage space in the Hadoop system, but each node may contain unimportant files occupying part of this space, so we will present in this research a technique to delete the near-duplicate images stored within data nodes, using a Discrete Cosine Transform (DCT).
|
653 |
|
|
|a معالجة الصور
|a الصور الرقمية
|a الخوارزميات
|a برامج الكمبيوتر
|
692 |
|
|
|a معالجة الصورة الرقمية
|a ضغط الصورة
|a الصورة شبه المكررة
|a تحويل جيب التمام المتقطع
|b Digital Image Processing
|b Image Compression
|b Near-Duplicate Images
|b Hadoop
|b DCT
|
773 |
|
|
|4 العلوم الإنسانية ، متعددة التخصصات
|6 Humanities, Multidisciplinary
|c 001
|f Mağallaẗ al-ʿulūm al-handasiyyaẗ wa-al-tiknūlūğiyā al-maʿlūmāt
|l 001
|m مج5, ع1
|o 1746
|s مجلة العلوم الهندسية وتكنولوجيا المعلومات
|t Journal of Engineering Sciences and Information Technology
|v 005
|x 2522-3321
|
700 |
|
|
|9 617675
|a زقزوق، عمار علي
|g Zakzouk, Ammar Ali
|e م. مشارك
|
856 |
|
|
|u 1746-005-001-001.pdf
|
930 |
|
|
|d y
|p y
|q y
|
995 |
|
|
|a HumanIndex
|
999 |
|
|
|c 1152260
|d 1152260
|