Computer Science
Permanent URI for this collection
Browse
Browsing Computer Science by Title
Now showing 1 - 20 of 75
Results Per Page
Sort Options
- ItemA smart Framework for identifying the training needs of Palestinian Teachers using Data Mining Techniques(Al-Quds University, 2020-12-17) Nidaa “Mohammad Ghazi” Hasan Farhaneh; نداء "محمد غازي" حسن فرحانهThis study aims to establish a Smart Framework that works as a system based on searching for data related to teachers of the Arabic Language, Science, Mathematics and English Language studies within specific criteria and variables, to determine the training needs by predictions through framework using data mining AI algorithm, which is necessary to enhance teacher’s performance in the classroom environment. The researcher took a sample of public school teachers in the academic year 2014/2015 AD and determined the following variables: academic qualification, specialization, stages that he teaches, an annual calendar, training courses, and their number of hours in content areas and teaching methods. The search was conducted using Angular as a JavaScript tool for the client-side (FE) in the framework and the spring boot as a server-side (BE) connected to a database MySQL and Flask Python server which is responsible for machine learning of deep neural network (DNN) as (AI) algorithm, all servers connected via (API) in Jhipster environment. Results of applying the prototype showed high effectiveness in identifying training needs to improve teachers' performance in an organized and interactive way. The researcher recommends the Ministry of Education to use this intelligent technology tool for its effectiveness in predicting needed training courses for a teacher to enhance his performance, and also to organize teacher’s data in an oriented w
- ItemAn Aggregate Scalable Scheme for Expanding the Crossbar Switch Network; Design and Performance Analysis(AL-Quds University, 2004-09-05) أحلام محمد درويش قريع; Ahlam Mohammed Darwish Qrie; عبدالكريم عياد; Rashid JAYOUSI; Luai MALHISNew computer network topology, called Penta-S, is simulated. This network is built of cross bar switch modules. Each module connects 32 computer nodes. Each node has two ports, one connects the node to the crossbar switch module and the other connects the node to a correspondent client node in another module through a shuffle link. The performance of this network is simulated under various network sizes, packet lengths and loads. The results are compared with those obtained from Macramé project for Clos multistage interconnection network and 2D-Grid network. The throughput of Penta-S falls between the throughput of Clos and the throughput of 2D-Grid networks. The maximum throughput of Penta-S was obtained at packet length of 128 bytes. Also the throughput grows linearly with the network size. On the opposite of Clos and 2D-Grid networks, the per-node throughput of Penta-S improves as the network size grows. The per-packet latency proved to be better than that of Clos network for large packet lengths and high loads. Also the packet latency proved to be nearly constant against various loads. The cost-efficiency of Penta-S proved to be better than those of 2D-Grid and Clos networks for large number of nodes (>200 nodes in the case of 2D-Grid and >350 nodes in the case of Clos).On the opposite of other networks, the cost-efficiency of Penta-S grows as its size grows. So this topology suits large networks and high traffic loads.
- ItemAnomaly-Based Network Intrusion Detection System Using Deep Neural Networks (ANIDS-DNN)(Al-Quds University, 2023-01-08) Sharif Mohammed Ahmad Yasin; شريف محمد احمد ياسينتقوم أنظمة الكشف عن اختراق الشبكات (NIDS) بمراقبة وتحليل حركة مرور الشبكة الواردة والصادرة وإصدار الإنذارات عند اكتشاف عمليات اقتحام أو أنشطة ضارة حيث تعتبر هذه الأنظمة خط الدفاع الثاني بعد جدار الحماية. في السنوات الأخيرة، حفز العدد المتزايد من الهجمات السيبرانية الحاجة إلى تطوير أنظمة آلية وذكية للكشف عن اختراق الشبكة والتي تتعلم السلوك الطبيعي لحركة مرور الشبكة (ANIDS)، وبالتالي فإن حركة المرور التي تنحرف عن المعتاد تعتبر شاذة أو ضارة. على الرغم من أن أنظمة كشف التسلل المستندة إلى حركة المرور غير المعتادة أفضل من أنظمة كشف التسلل القائمة على التوقيع في اكتشاف هجمات اليوم الصفري أو غير المعروفة، إلا أنها تولد معدل إنذار خاطئ مرتفعًا إذا تم تغيير السلوك الطبيعي للشبكة. لحل المشكلات المذكورة أعلاه، تقترح هذه الأطروحة نموذج ANIDS لاكتشاف الهجمات غير المعروفة او هجمات اليوم الصفري في تدفقات الشبكة باستخدام تغذية الشبكات العصبية العميقة الى الامام كخوارزمية تصنيف. يأخذ النموذج ميزات NetFlow المجمعة كمدخلات وبعد إعداد البيانات، تصنف خوارزمية التعلم العميق كل اتصال بالشبكة على أنه عادي أو شاذ. من أجل تحسين دقة الكشف عن أنماط الهجوم التي لها ترددات تعتمد على الوقت مثل هجوم nerisbotnet، تم تصميم ثلاث ميزات إدخال جديدة وهي sa_nsessions_T و da_nsessions_T و sa_da_nsessions_T عن طريق تجميع التدفقات بناءً على عنوان المصدر وعنوان الوجهة وسمات الطابع الزمني باستخدام نافذة زمنية مدتها دقيقة واحدة. وبعد المعالجة المسبقة لميزات المدخلات، يتم تحديد أهم 45 ميزة إدخال. علاوة على ذلك، يتم تعلم معلمات النموذج باستخدام عدد كبير من التدفقات ذات التصنيف متعدد الفئات من مجموعة بيانات UGR’16 العامة [32]. تم تحسين المعلمات الفائقة للنموذج للحصول على أفضل أداء من حيث الدقة ومعدل الاكتشاف والوقت اللازم لتدريب النموذج المقترح. أكدت النتائج التجريبية الأداء العالي للنموذج المقترح عند اختباره على تدفقات الشبكة غير المرئية من مجموعة بيانات UGR’16. تتكون بنية الشبكة المثلى من طبقة إدخال واحدة وثلاث طبقات مخفية وطبقة إخراج واحدة. حقق النموذج دقة 99.773٪، ومعدل موجب خاطئ أقل من 1٪، ومساحة تحت منحنى خاصية تشغيل المستقبل (ROC-AUC) تبلغ 0.999915. أيضًا، تبلغ دقة الكشف للمصنف متعدد الفئات 99.58٪ ومعدل الكشف لجميع الفئات الفردية أعلى من 99٪ باستثناء هجوم NerisBotNet حيث يبلغ معدل الكشف 94.70٪. عند مقارنة النموذج المقترح بالنماذج الحديثة الأخرى في الأدبيات [33]، [52]، والتي تم تقييمها على نفس مجموعة بيانات UGR’16، تظهر النتائج التجريبية أن النموذج المقترح يتفوق على النماذج الأخرى من حيث معدل الاكتشاف والدقة.
- ItemComparative study on feature selection and ensemble methods for sentiment analysis classification(AL-quds University, 2020-06-10) Zahir Mohammad Adnan Younis; زاهر "محمد عدنان" يونسPeople use the Web and social media to express their opinions and comments on various topics and posts generating huge amounts of data. Hence, comes the necessity to analyze this large amount of text regarding a certain subject and figuring out what people think of it. The interest and necessity of this analysis is continuously rising in many fields, such as politics, marketing, entertainment, sports, etc., to figure out people opinions, thinking, interests, preferences, and trends. Consequently, analysis, classification and clustering of this huge amount of text data regarding certain subjects became an interest of a vast number of researchers and beneficiaries. This analysis of text data content is known as sentiment analysis. Sentiment Analysis (SA) is a text-mining field that computationally treats and analyses these sentiments (opinions, thinks, subjectivity, interests, preferences, etc.,.) of available text. SA aims to classify expressions in a text as positive, negative or neutral opinion towards the subject of interest. The main objective of this research is to carry out a comparative study on the accuracy and performance of feature selection and ensemble methods for SA classification. The comparison was carried out using different combinations of classification algorithms for classifying text to being either positive or negative. During the comparison of the algorithms and methods, the results showed that better accuracy can be achieved based on the used feature selection method (i.e., statistical, wrapper, or embedded). Additionally, it showed which feature selection method outperforms and is more suitable than other methods for the type of data and classification algorithms. Furthermore, when using combined ensemble methods (Bagging, Boosting, Stacking and Vote) performed better than using a single classifier by means of accuracy. Moreover, merging feature subsets selected by embedded method improved classification accuracy. Finally, tuning the parameters of feature selection methods improved the classification accuracy and reduced the time needed to select feature subsets. Particularly, the results showed that accuracy depends on the feature selection method, ensemble methods, number of selected features, type of classifier, and tuning parameters of the algorithms used. A high accuracy of up to 99.85% was achieved by merging features of two embedded methods when using stacking ensemble method. Also, a high accuracy of 99.5% was achieved by tuning parameters in stacking method, and it reached 99.95% and iv 100% by tuning parameters in SVMAttributeEval method using statistical and machine learning approaches, respectively. Furthermore, tuning algorithms' parameters reduced the time needed to select feature subsets.
- ItemData Injection in ICMP Protocol Vulnerability and Exploitation(Al-quds University, 2021-01-05) Eyad Fatih Ali Refai; اياد فتيح علي الرفاعيThis thesis and scientific research aim to prove and review the possibility of injecting the ICMP protocol packets with encrypted or unencrypted data and passing it to another network, external or internal receiver. We will also see the potential and ability of modern generations in the network structure to follow up, monitor, or block such incorrect behavior due to this protocol’s inefficient use. As ICMP is one of the critical protocols at work, this protocol’s exploitation began to threaten networks and their components and enable their work and privacy. Cyber-attacks or electronic attacks in various forms are an old/new phenomenon that the world is experiencing. Still, it started to increase due to the considerable expansion of networks’ usage and their applications and systems, which poses a threat to these network administrators and employees. Different technologies have emerged to exploit the structure of building these networks to use their software components to carry out cyber-attacks. It affects systems such as blocking the service, disabling access, or electronic spying on packets and other forms. Our study problem has emerged after research and audit and through the work of the author at the Center for Combating Cyber Crime in Palestine. The need to combat this phenomenon is an essential part of understanding networks' general structure and how they and their components work. Thus, our study emerged in relation to leaking data and injecting data within a legal packet. We will perform several real experiments to prove our concept and then draw recommendations and conclusions. We will work on technical experiments to prove the validity of scientific research. It has already appeared to us that data can be injected into the packages, which may cause data to leak, and modification in the header of the packet. Also, this type of change shows the emergence of a new kind of cyber-attacks that may be caused by the ICMP package as many from cyber-attacks using these packages. تهدف هذه الرسالة والبحث العلمي الى اثبات واستعراض امكانية حقن حزمة البروتوكول ICMP ببيانات مشفره او غير مشفرة وتمريرها الى شبكة اخرى او مستقبل خارجي او داخلي، بالإضافة الى ذلك سنرى امكانية وقدرة الاجيال الحديثة في هيكلية الشبكات لمتابعة او رصد او حجب مثل هذا النوع من السلوك الغير صحيح للاستخدام الغير أمثل لهذا البروتوكول. حيث يعتبر بروتوكول ICMP من البروتوكولات ذات الاهمية في العمل وقد بدأ استغلال هذا البروتوكول في تشكيل تهديد وخطر على الشبكات ومكوناتها واتاحة عملها وخصوصيتها ايضا. تعتبر ظاهرة الهجمات السيبرانية او الهجمات الالكترونية بأشكالها المختلفة ظاهرة جديدة قديمة يعيشها العالم ولكن بدأت بالازدياد نتيجة التوسع الكبير في استخدام الشبكات وتطبيقاتها وانظمتها، مما يشكل خطراً على مديري هذه الشبكات والعاملين فيها. وقد ظهرت تقنيات مختلفة لاستغلال هيكلية بناء هذه الشبكات من حيث استغلال مكوناتها البرمجية في ارتكاب هجمات سيبرانية تؤثر على عمل الشبكات مثل حجب الخدمة، أو تعطيل الوصول، أو التجسس الالكتروني على الحزم، وغيرها من أشكال الخروقات الأمنية. إن تطور ادوات التقنية بشكلها الحالي قد يساهم ايضا في الوصول الى هجمات واستغلالها بشكل غير اخلاقي وسيؤثر ذلك على الصلاحيات الفنية الممنوحة للفنين في داخل اقسام العمل في مراكز البيانات المختلفة او الذين يعملون داخل اقسام ذات حساسية عالية ومعلومات حساسة. وسوف نجيب في هذه الدراسة عن العديد من التساؤلات والتي بطبيعتها ستخلق منهجية أمن المعلومات، بحيث أنها يمكن أن تضاف على لوائح وسياسات أمن المعلومات كقضايا جديدة ويكون لها وظائف جديده. لقد ظهرت المشكلة التي تعالجها هذه الدراسة بعد البحث والتدقيق، ومن خلال عملي في مركز مكافحة الجرائم السيبرانية في فلسطين، حيث تعتبر ضرورة مكافحة هذه الظواهر جزء مهم من فهم الهيكلية العامة للشبكات وطريقه عملها ومكوناتها، ومن هنا ظهرت مشكلة الدراسة الخاصة بنا التي تتعلق بتسريب بيانات وحقن بيانات داخل حزمة مهمة في العمل اليومي لمهندسي الشبكات والفنيين.ايضا ستطرح هذه الدراسة العديد من الاسئلة والمواضيع للبحث العلمي بحيث تطرح مسالة تطوير وانتاج برمجيات ومعدات تساهم في الحد او تتبع او حفظ السجلات والتقاط الحزم او مساعدة البحث الجنائي الالكتروني في حال تم الاستغلال او اجراءات التدقيق الدوري للأنظمة وسلامة مركز البيانات وسرية وخصوصية البيانات. ففي "الطب الشرعي" الالكتروني يمكن الاستفادة من الحزمة التي يتم التقاطها في تحليل سلوك الشبكة او البرمجيات ذات السلوك الضار، أو تمرير بيانات الى أطراف غير مخول لها للوصول الى المعلومات، أو الاتصالات العكسية، ومن ثم إيجاد حلول للمشاكل التي من الممكن أن تقع فيها الشبكات من خلال إحصاء كمية البيانات التي تمر عبر الشبكة مما يساعد في اكتشاف عمليات الدخول الغير مرخصة، واكتشاف الهجمات من نوع ) DoS ( و ) DDoS (، وتحليل بروتوكولات الشبكة وتنقيحها. سنعمل في هذا البحث على تجارب فنية لإثبات صحة البحث العلمي وقد ظهر لدينا بالفعل انه يمكن حقن بيانات داخل الحزم مما قد يسبب في تسريب البيانات ، والتعديل في ترويسة الحزمة ، وايضا يظهر هذا النوع من التعديل ظهور نوع جديد من الهجمات السيبرانية التي قد تتسبب بها حزمة ICMP كما العديد من الهجمات السيبرانية بإستخدام هذه الحزم .
- ItemE-Exam Cheating Detection System(Al-Quds University, 2023-08-12) Mohammad Emad AbdAlteef Amer; محمد عماد عبد اللطيف عامرWith the spread of the internet and technology over the past decades, e-learning has been growing rapidly day by day. In the other hand, cheating in exams is a worldwide dilemma, regardless of the levels of technological advances. Online exams are an essential and fundamental component of e-learning. Students' exams are given in remote e-learning without any kind of monitoring or physical observation. because of students’ ability to cheat easily during electronic exams. E-learning universities depend on face-to-face examination process on campuses under supervised conditions. This dissertation looks at methods used by a student to cheat on remote exams (E-Exam) by a constant authentication which ensures that the authorized person is only the test taker throughout the entire exam session; And the use of online proctors point out effective methods for detecting cheating in distance examination. In this thesis, we built an electronic exam management system that can detect cheating in the E-Exam. The work of this system can be divided into two stages, the first stage when the examinee is; before an examinee being allowed to attend a session, uses a Faceprint to authenticate the examinee. Face Recognition is also used during the E-Exam session. As a result, we can determine whether an examinee is cheating or not cheating in an exam by these two criteria: the examinee's total on-screen time and the number of times the examinee is off-screen. In this thesis, a new approach was used to be applied in electronic test management systems.
- ItemEmployment Recommendation System Using Content-Based Filtering Approach and Fuzzy Logic(Al-Quds University, 2020-08-19) Amani Basem Mohammed Haboub; أماني باسم محمد حبوبNowadays, there is a gap between the requirements of the labor market and the scientific specializations, which are available in universities. The existence of similar disciplines with different names in universities leads to a large number of specializations, especially for a specific number of jobs. These things we mentioned before make it difficult to find and match the most suitable specialization, which based on the educational outcomes for the available jobs in the labor market. The importance of the study reveals in matching Automatic job with an available job positions is a big problem for organizations and applicants. There are many techniques and algorithms to help job seekers find the right job. Some are traditional algorithms while others have been found recently, also there are a large number of hybrid algorithms that are a combination of many algorithms. All these algorithms aim to find the best job for the candidate and to make recruitment processes faster, more accurate and transparent. The literature review focused on how we can help job seekers find the most suitable jobs using techniques such as analysis, extraction, and web crawling. The problem with current method is that it calculates the similarity between job applications (job profile) and CV (user profile, this happens without measuring whether the recommended candidate is satisfying or meets the employer's goals or needs. The main question of this work (problem statement) is how to achieve the best matching between candidates and offered jobs. So, we suggest a hybrid system based on NLP tasks, BabelNet dictionary, content base filtering approach and finally fuzzy logic, all that allow system users (i.e., applicants and employers) to search for suitable jobs with matching them with job offers, which leads to best presentation for each candidate. We also suggest building a database contains different specialties and appropriate jobs, according to the opinion of stakeholders, such as academics who teach that specialization and the opinion of some workers in the labor market. Our main contribution is proposing a model to manage the recruitment process by evaluating the applicants' CVs, which contents weighting match to the offered/posted (open jobs) requirements by recognizing the employers' needs. In order to make our finding approach closer to reality, transparent and to reduce effort and time applicants and employers spend, we take into account the opinions of academics working in Palestinian universities in different disciplines and their relationship to the labor market. Also, the study provides an opportunity for applicants, who were not accepted when the education section was evaluated from 100%, or getting a low match ratio to be acceptable, and has a good chance to employ. The expert knowledge base we created effects on results by giving a wider chance to those who had a low employing chance to be accepted, also the study shows that the employee opinion effected in the candidate list. Finally, as appears from candidate lists, the system is well effective in extracting lists according to the proportion of matching required for each section in the employment announcement, and in terms of accuracy. The results are satisfactory, according to seekers qualifications, there are very close matching rates in some cases and spaced out in other cases. Also, it is easy to use through the simple user interface and flexibility in dealing with by consistent with the requirements of the employer expressed by a certain percentage ratioالوظيفة الشاغرة مع المتقدمين لها، لاستخراج أفضل النتائج.
- ItemEnhancement of Intelligent Prediction Model for Milk Production(Al-Quds University, 2022-05-25) Rawan Majdi Abd AL-Kader Hijazi; روان مجدي عبد القادر حجازيAbstract Enhancement prediction model in data mining field is one of challenges in Development stepand measurement Accuracy Ratio For high quality and measurable results in these tools examined in accuracy ratio are three algorithms, namely:Artificial Neural Network (ANN), Random Forest Tree(RF), and Auto RegresiveIntegratedMovingAverage(ARIMA). As these algorithms were used to predict the amount of milk production in the cow farm in the Arab Development Society, a sample of 20 cows was taken out of 300 samples in order to check the accuracy we consider all have good health and same feed. However, there are many factors that limit the accuracy of using predicting techniques, such as the age of the cow, temperature, health status and the number of births, which affects the accuracy of sampling. improving data collection methods and the development of computerized systems based on the storage method and prediction of future results allow greater accuracy and efficiency than traditional storage methods. Despite the availability of many computerized systems and advanced data storage methods and methods, there are still errors in applications using programs and models. Predicting of cow milk production quantities for cows' milk, as these systems are high cost are still in experimental stages and have not been applied in the final project. Previous studies discussed the main effect of production quantity for cow's milk, and the system implemented the above-mentioned three algorithms to measure the prediction ratio in the optimization model for accuracy. It was evaluated on a sample of cows for 20 cows with high accuracy of the system through 273 simulation procedures for sampling from cows, and the highest accuracy percentage was shown by the artificial neural network (ANN) method, then ARIMA ,at least the random forest method (RF), which is less accurate among the results. For future plans, we will use the first plan to improve the main interfaces in the program in line with each user, as it is easier for users to work faster and easier. In the second aspect, we will modify the environment of work in general. We will also allow searching for cows by adding information about them via smart tag panels. Which in turn will identify the cow by its tag number. As the main components such as sensors and software are ready which in turn is enough to develop this aspect of the work تحسين نموذج التنبؤ الذكي لإنتاج الحليب إعداد:روان مجدي عبد القادر حجازي إشراف: د.رشيد جيوسي الملخص يعد استخدام تقنيات التنبؤ المختلفة في التشخيص وقياس نسبة دقة الأداء للحصول على نتائج افضل ونماذج ذات جودة ودقة عالية وقابلة للقياس حيث ان هذه الأدوات التي تم استخدامها لقياس نسبة الدقة هي ثلاث خوارزميات الا وهي: الشبكة العصبية الاصطناعية والغابة العشوائية ومتوسط متحرك متكامل ذاتي الانحدار. حيث ان هذه الخوارزميات تم استخدامها لتنبؤ كمية انتاج الحليب في مزرعة الابقارفي جمعية المشروع الانشائي وتم اخد عينة مكونه من 20 بقرة سجل من اصل 400 عينه من اجل فحص نسبة الدقة. الا ان هنالك عوامل كثيرة تحد من الدقة في استخدام تقنيات التنبؤ مثل عمر البقرة ودرجة الحرارة والحالة الصحية وعدد المواليد مما يؤثر على نسبة الدقة في اخذ العينات حيث ان في تجربتنا كانت الحالة الصحية ثابتة لجميع العينة ونوعية الطعام كذلك . يتيح التقدم في طرق جمع البيانات وتطوير الانظمة المحوسبة المعتمدة على طريقة التخزين والتنبؤ بالنتائج المستقبلية دقة وفعالية أعلى من الطرق التخزين التقليدية. على الرغم من توفر العديد من الانظمة ا لمحوسبة وأساليب وطرق تخزين البيانات المتقدمة، إلا أنه ما زال يوجد أخطاء في تطبيقات استخدام برامج ونماذج التنبؤ بكميات الإنتاج لحليب الابقار ، كما أن هذه الانظمة عالية التكلفة و تعالج كافة العوامل المسببة لهذه الاخطاء وما زالت في مراحل تجريبية ولم يتم تطبيقها في المشروع الانشائي. ناقشت الدراسات السابقة التأثير الرئيسي لكمية الإنتاج لحليب الابقار، ونفذ النظام الخوارزميات الثلاث المذكورة أعلاه لقياس نسبة التنبؤ في نموذج التحسين للدقة. وتم تقييمه على عينة من الابقار ل 20 بقرة مع دقة عالية للنظام من خلال محاكاة لأخذ عينات من الابقار، وأظهرت نسبة الدقة الأعلى لطريقة الشبكة العصبية الاصطناعية ثم طريقة متوسط متحرك متكامل ذاتي الانحدار ثم طريقة الغابة العشوائية التي هي اقل دقة من بين النتائج. ومن الخطط المستقبلية سنستخدم الخطة الأولى لتحسين الواجهات الرئيسية في البرنامج بما يتماشى مع كل مستخدم حيث يسهل على المستخدمين العمل بشكل أسرع وأسهل في الجانب الثاني، سنقوم بتعديل هيئة العمل بشكل عام، كما سنسمح بالبحث عن الأبقار أو إضافة معلومات عنها بواسطة لوحات العلامات الذكية. والذي بدوره سيحدد البقرة من خلال رقمها الذكي. حيث أن المكونات الرئيسية مثل أجهزة الاستشعار والبرمجيات جاهزة وهذا بدوره كافي لتطوير هذا الجانب من العمل
- ItemFinding the best Altitude of motion for a system of UAVs moving among 3D environments containing HDFPOs.(Al-Quds University, 2022-03-10) Amjad Jafar Mustafa Khalil; أمجد جعفر مصطفى خليل. لا تزال مشكلة تخطيط الحركة في الفضاء ثلاثي الأبعاد (3D space) تمثل تحديًا كبيرًا للباحثين وعلماء الذكاء الاصطناعي. هناك زيادة مضطردة في عدد المركبات الجوية التي تحلق على شكل نظام ضمن بيئات منوعة، وفي حين أن الصناعة الواعدة مستقبلا هي للطائرات بدون طيار أو محلقات رباعية المراوح (quadrotors)، وتطويرها للعمل ضمن العديد من الخدمات والوظائف، هو ما يدفع الحاجة الملحة لإيجاد حلول جديدة تنظم حركة هذه الأنظمة وتتحكم فيها بشكل مستقل. هدفنا الرئيسي في هذه الدراسة هو تطوير جانب من الحركة خلال العديد من المساحات المحيطة بنا مثل المدن الكبرى. في هذه الرسالة البحثية، ندرس كيف تؤثر كثافة العوائق على مسارات الروبوتات الهوائية، لتقديم طريقة لتخطيط مسار الحركة في بيئة ثلاثية الأبعاد تحتوي على عوائق ذوات الشكل المضلع الثابتة والعالية الكثافة أو المزدحمة (HDFPOs) في بيئة الحركة. في البداية نقوم بإنشاء خرائط عشوائية مختلفة في بعدين (2D)، ثم نقوم بتحويلها إلى بيئة ثلاثية الأبعاد من خلال توزيع عوائق متعددة الأضلاع. تحتوي محاكاتنا على خمسة روبوتات جوية (quadrotors) وأكثر من نقطة هدف للوصول إليها، تمت المحاكاة باستخدام أداة محاكاة ثلاثية الأبعاد Unity. لقد قمنا بتحسين بيئتنا ثلاثية الأبعاد في عدة خرائط تقاطع ثنائية الأبعاد، ثم طبقنا خوارزمية بحث A Star (A*) وطريقة البحث A Star المرجحة. يتم تطبيق عمليات البحث عن المسار المناسب للحركة باستخدام خرائطنا المعروفة ثنائية الأبعاد التي تم إنشاؤها والتي تتقاطع مع العديد من الارتفاعات في البيئة ثلاثية الابعاد الثابتة والمحتوية عوائق متعددة الأضلاع. هدفنا هو إنشاء مسارات خالية من الاصطدام للنظام والروبوتات الطائرة في كل تجربة. من خلال تنفيذ هذا النهج لعدد كبير من الخرائط وعلى ارتفاعات مختلفة، من الواضح أن هذه الطائرات تتقاطع مع البيئة ثلاثية الأبعاد التي تم إنشاؤها. بتكرار هذه التجربة عن طريق تغيير نسبة كثافة حجم العوائق متعددة الأضلاع المضافة إلى خرائطنا، نقوم بجمع كمية هائلة من البيانات. ثم نقوم بتحليل البيانات التي تم جمعها باستخدام نهج ملائمةالمنحنى (Curve fitting) للمقارنة والعثور على أفضل ارتفاع يختصر مسافة الطيران. ستساعد النتائج التي تم الحصول عليها نظام المركبات الجوية ذاتية الحركة (UAVs) على الوصول إلى أهدافها باتباع أقصر مسافة وضمن أقصر زمن. نفذت جميع التجارب على نسب مختلفة من كثافات العوائق متعددة الأضلاع. نهدف إلى التنبؤ بأفضل ارتفاع للطيران في حالة بيئة HDFPOs التي تحقق أقصر مسار حركة ولإيجاد نقطةمرجعية لذلكمثل متوسط ارتفاعجميعالعوائق.
- ItemGamification of Agile Project Management for Software Development Projects and Tasks(Al-Quds University, 2020-06-09) Areej Ibrahim Salman Aldaghamin; اريج ابراهيم سلمان الدغامينThis thesis focuses on the enhancement of team members’ performance working in Agile software projects. Agile projects are complex, contain rapid changes, and require less documentation. These projects depend upon team performance and evaluating it. Gamification is a tool used to motivate users to behave as desired, which can be merged ideally with software development. The approach of this research is to gamify project management systems of Agile software development to ensure high performance of team members while recognizing individuals’ differences, and to encourage each team member to work towards a common goal. A proposed prototype was created by combining gamification elements to a task management system in software projects, particularly for the development tasks to study their impact on the team members’ performance. The implications of embedding gamification in the work environment were also studied. Its application was examined as an added value to the management and development of teams of software projects in IT companies. This was achieved through a six-step approach to gamify software development tasks that include presenting, applying, and reflecting on its advantages from the perspective of both management and employees. This research presents test case results. The tests were performed with a group of twenty developers, they were interviewed after completing usability testing in the context of gamification. The results presented not only support how gamification shows an increase in the developers' performance and productivity but also display its benefits on the management team evaluation.
- ItemImplementing Agile and DevOps at Scale: Identifying Best Frameworks, Practices, and Success Factors.(Al-Quds University, 2024-05-27) Mohammad Adnan Ibrahim Abu Ayyash; محمد عدنان ابراهيم ابوعياشAgile methodologies are widely acknowledged for their capacity to improve project outcomes, accelerate delivery schedules, and enhance team productivity within the software development domain. However, a noticeable gap remains in understanding the global implementation of Agile practices alongside DevOps and the factors contributing to their collective success, particularly in Agile-DevOps integration. This study aims to address this gap by examining the deployment of Agile methodologies, particularly when integrated with DevOps, across the international software industry. Using a mixed-methods approach, we conducted surveys and interviews with 53 software development professionals from 93 companies across various regions and analyzed their responses alongside a comprehensive dataset from these companies. We identified prevalent challenges, optimal practices, and critical success factors associated with Agile and DevOps integration, including organizational culture, leadership support, and continuous improvement practices. Furthermore, the investigation aimed to identify an appropriate organizational change framework grounded in Agile principles and develop strategies to optimize outcomes. The insights garnered from this research effort are expected to inform practitioners on the effective implementation of Agile and DevOps methodologies, thereby improving processes for existing adopters. Additionally, the study explored the potential contributions of computer science to scaling Agile and DevOps initiatives, leveraging methodologies such as PROMETHEE-II for informed decision-making. Identified success factors underwent validation and prioritization through consultation with industry experts, providing valuable insights for enhancing Agile and DevOps processes. Recommendations for companies within this domain were proposed and v validated through real-world application in software projects. Based on our analysis, the Triangulation method was suggested as particularly suitable for small software companies. Adoption of these methodologies and frameworks can address challenges associated with scaling Agile and DevOps, promoting more efficient software development practices aligned with organizational objectives. While various frameworks such as SAFe, LeSS, DEAM, ITIL, and Kanban offer scalability solutions, careful consideration should be given to selecting the most suitable framework aligned with organizational requirements and objectives. Main results indicated that companies implementing Agile-DevOps integration with strong leadership support and a culture of continuous improvement saw the most significant improvements in productivity and delivery schedules.
- ItemLiver Biopsy Sampling System Guided by the Internal Organs Motion and Ultrasound Imaging(Al-Quds University, 2020-08-22) Laila Ahmad Omar Abbasi; ليلى أحمد عمر عباسيPercutaneous needle access is a critical step of many clinical procedures, such as injections, diagnostic biopsies, and cancer ablation treatments, the higher the accuracy of needle placement and trajectory planning, the better the procedure results. However, the desired optimal needle targeting and positioning are challenging due to physiological respiratory motion and tissue deformation, which can cause mistargeting, resulting in needle placement error, ineffective delivery of treatment, or mistaken diagnosis. Advancement in medical technology and the development of image-guided navigation systems enable better interventional processes and higher procedure accuracy and efficacy. However, despite the wide variety of strategies and technologies implemented in needle placement and navigation systems, clinically applicable solutions are still lacking due to incompetent systems of addressing all technical and patient-specific challenges associated with image guidance interventions. The literature discussed the major effect of respiration on organs movement, and reported a high magnitude of organ displacement during breathing, specifying the organ motion as a major source of lesion targeting error in needle interventions. Although, the state-of-art image-guided navigation systems are not capable of compensating and dealing with this error factor. The development of a precision image-guided navigation system that accounts for respiratory induced lesion displacement, integrated with medical imaging processing and computer vision techniques is proposed in this thesis. Aiming to control needle placement sources of error in clinical applications of biopsy sampling in a process that adapt to the current clinic workflow. The system provides physicians with preoperative feedback on needle biopsy sampling plan, allows for patient-specific biopsy plan, target tracking, performs image processing, volume rendering of targets region of interest, needle insertion, and extraction considering organ movement. The system implemented MOSSE tracker for target region tracking during the intervention, and has been evaluated on 9 patients’ data with 27 simulated liver tumor biopsy sampling procedures, and showed a reliable tracking with a high system accuracy with a mean overall error of 1.78 ± 0.8 mm. The results show that controlling needle insertion based on the motion improved the targeting accuracy and made possible for future critical clinical applications
- ItemMachine Learning Drug Discovery for COVID-19(Al-Quds University, 2023-03-27) Claudia Alawi; كلوديا الياس رأفت علاويCOVID-19 was a big issue facing the world, and the development of an effective drug for the virus is still under research. However, developing a new drug is a lengthy and costly process that might take up many years. Artificial intelligence can have a vital role for faster and more cost-effective drug discovery. The primary protease that is essential to SARS-CoV-2 replication is 3CLpro. In this thesis a machine learning model that can be used to predict the inhibitory activity of 3CLpro was developed based on decision tree regressor. The descriptors that represent the chemical molecules were obtained using PADEL descriptor software, and these descriptors were fed into the decision tree model to train it and predict the bioactivity of unknown compounds with the target protein. The model was optimized using pruning and ensemble methods, where the decision tree was combined with SVM to improve the model performance. The research focused on both external and internal approaches for validating model performance. The model successfully discovered 26 unknown compounds from Zinc natural product data source that showed bioactivity with the target protein. Moreover, Lipinski rule of five (RO5) was applied to prioritize drug-like compounds resulting in 25 of the discovered compounds having drug like properties and can be used in clinical trials. The model was validated using 10-folds cross validation and was also validated using external dataset from different data source than the data source used in training the model, on both external and internal datasets, the proposed model has proven to be effective, however, the model showed higher performance on the external validation with accuracy of 0.89, precision of 0.75, recall of 0.6 and f1 score of 0.67 for the internal validation, while for external validation 0.98 accuracy, 0.99 precision, recall of 0.93 and f1-score of 0.96. Compared to similar studies using deep learning, our machine learning model showed better performance. In conclusion the proposed model can be useful in the drug discovery of new compounds for the COVID-19 virus. ملخص كان فيروس كورونا مشكلة كبيرة تواجه العالم، ولا يزال تطوير دواء فعال للفيروس قيد البحث. ومع ذلك، فإن تطوير دواء جديد عملية طويلة ومكلفة وقد تستغرق سنوات عديدة. يمكن أن يلعب الذكاء الاصطناعي دورًا حيويًا في اكتشاف الأدوية بشكل أسرع وأكثر فعالية من حيث التكلفة. إن البروتياز الأساسي الضروري الازم لتضاعف و نمو الفيروس هو إنزيم البروتيز الرئيسي (3CLpro). في هذه الأطروحة، تم تطوير نموذج التعلم الآلي الذي يمكن استخدامه للتنبؤ بالنشاط المثبط للبروتيز الرئيسي من خلال تطبيق شجرة القرار. تم الحصول على الواصفات التي تمثل الجزيئات الكيميائية باستخدام برنامج واصفPADEL ، وتم إدخال هذه الواصفات في نموذج شجرة القرار لتدريبها والتنبؤ بالنشاط الحيوي لمركبات غير معروفة مع البروتين المستهدف. تم تحسين النموذج باستخدام طرق التقليم والتجميع، حيث تم دمج شجرة القرار مع آلة المتجه الداعم لتحسين أداء النموذج. ركز البحث على كلا النهجين الخارجي والداخلي للتحقق من أداء النموذج. اكتشف النموذج بنجاح 26 مركبًا غير معروف من مصدر بيانات منتج الزنك الطبيعي الذي أظهر نشاطًا حيويًا مع البروتين المستهدف. علاوة على ذلك ، تم تطبيق قاعدة Lipinski (RO5) لتحديد المركبات التي تصلح ان تكون عقاقير و لها خصائص العقاقير مما انتج عن 25 من المركبات المكتشفة التي لها خصائص شبيهة بالعقاقير ويمكن استخدامها في التجارب السريرية. تم التحقق من صحة النموذج باستخدام التحقق المتقاطع المتكون من 10 تقاطعات وتم التحقق من صحته أيضًا باستخدام مجموعة بيانات خارجية من مصدر بيانات مختلف عن مصدر البيانات المستخدم في تدريب النموذج ، وقد أثبت النموذج المقترح فعاليته على كل من مجموعات البيانات الخارجية والداخلية و لكن أظهر النموذج أداءً أعلى في البيانات الخارجية. فقد كانت النتائج بدقة 0.89 ، و إحكام 0.75 ، واسترجاع 0.6 و النتيجة الكاملة للكفائة ودقة النموذج 00.67 للتحقق الداخلي ، بينما بالنسبة للتحقق الخارجي 0.98 دقة، و إحكام 0.99، واسترجاع 0.93 و النتيجة الكاملة للكفائة ودقة النموذج 0.96. مقارنة بالدراسات المماثلة التي تستخدم التعلم العميق ، أظهر نموذج التعلم الآلي لدينا أداءً أفضل. في الختام، يمكن أن يكون النموذج المقترح مفيدًا في اكتشاف الأدوية لمركبات جديدة لفيروس كورونا.
- ItemPerformance Comparison for High Availability Solutions of MySQL Database(Al-Quds University, 2020-06-10) Alaa Yaser Fayez Mohsen; الاء ياسر فايز محسنMySQL is one of the most common relational database management system that is used around the world and keeping it high available is important for most of its users. This research concentrates on MySQL database high availability solutions, where the database performance is evaluated and compared between two different high availability solutions. Noting that there are multiple choices for high availability solutions of MySQL such as master-slave replication with manual or automatic failover, MySQL NDB cluster, Galera Cluster for MySQL, MySQL with Solaris Cluster, Oracle MySQL Cloud Service. In this research the chosen solutions are InnoDB cluster (MySQL replication) and DRBD (Distributed Replicated Block Device) that depends on replicated disk architecture. InnoDB cluster is provided officially by MySQL. Up to our knowledge, there are no researches found related to performance comparison between these two solutions, and both are considered an effective solution for high availability with automatic failover. Each solution is evaluated using different replication modes of single primary topology. Two modes of DRBD cluster is evaluated, which are Protocol A and Protocol C. Also, two consistency levels are evaluated for InnoDB cluster, which are eventual and before_and_after levels. The results are analyzed and compared, so that would be helpful for decision makers in picking an appropriate high availability database solution for a given application taking into account its cost. The clusters are configured as recommended (best practice) for best performance and some variables are changed with multiple values to have the best case. For faire comparison purpose a benchmark tool is used as workload testing tool. The clusters are tested using read and write quires. As a result, we found that InnoDB outperforms the performance of DRBD for write tests. It shows higher performance in terms of throughput and total time. On the other hand, for read test it outperforms DRBD when the number of concurrent users is high. This is because InnoDB cluster has two nodes for read queries, and the received requests will be routed on two nodes. But when the number of concurrent users is low the DRBD shows better performance
- ItemRobotic Process Automation Framework for Web Applications Performance and Security Usability Testing(Al-Quds University, 2022-09-01) ايسر ساطي فايز قصراوي; Aysar Satee Fayez QasrawiUser Experience and Usability analysis of websites are important aspects that every website should focus more on. It indicates how effectively and successfully a website will work with real users. Several tools, both traditional and automated, have been developed to assist developers in user experience testing and evaluation. Most of these tools have limited access due to the accessibility cost and time-consuming. The goal of this research is to facilitate the user experience testing process and enhance websites’ performance, security, and accessibility by developing an integrated user experience testing framework based on Robotic Process Automation. The framework is integrated with JMeter for performance testing, ImmuniWeb for Security testing, and WAVE for accessibility testing. Experiments were conducted on 16 local websites from 4 different categories which are High Educational Institutions, Governmental, News and eCommerce websites. The Performance tests were conducted using 3G network and 8 Mbps LAN network, and we found that the average response time (website loading time) of all websites in 8 Mbps LAN network was 6458 msec while it was 10604 msec in 3G mobile network. Moreover, we found that 50% (8/16) of the websites have returned errors to some users in the 8 Mbps experiment due to the high traffic, while the percentage was 31% (5/16) of the websites in the 3G network experiment. The results of security testing indicated that there are major issues in 4 websites, where there are outdated third-party software or CMS components in these websites, and should be updated as soon as possible, such websites are vulnerable to publicly known vulnerabilities. Most websites have a good SSL test grade, with approximately 81% (13/16) of the websites receiving a grade higher than A-. The accessibility testing results showed that all websites have critical accessibility issues, and none of the analyzed websites met the required compliance level A. Therefore, these websites cannot be used effectively or satisfactorily by all stakeholders, particularly disabled prospective users. Robotic Process Automation bots showed a high capability in the testing of all websites, which will help in enhancing the quality and usability of websites based on international HCI standards and guidelines. يتزايد استخدام المواقع الإلكترونية بشكل كبير، وأصبح الوصول اليها أسهل بكثير نظرا لاتساع رقعة انتشار الشبكة العنكبوتية حول العالم. ومما أدى الى وجود حاجة في توفير تجربة مستخدم فعالة وجيدة (UX) والتي أصبحت جزءًا أساسيًا من تطوير التطبيقات، البرامج وبما في ذلك المواقع الإلكترونية. وبالرغم من الاهتمام في توفير تجربة مستخدم فعالة والحرص على رضا زوار الموقع، ألا ان رضا الزبائن عن كثير من المواقع ما زال محل نقاش. إن تصميم وتطوير تطبيق المواقع الالكترونية المتوافقة مع قابلية الاستخدام ومبادئ وإرشادات UX وHCI يعد مهمة معقدة وتحتاج للكثير من الاختبارات، هناك العديد من ادوات الاختبار المتاحة للتحقق من اتباع هذه المواقع لمبادئ HCI وضمان رضا الزوار. معظم هذه الأدوات لديها صلاحيات محدودة بسبب تكلفة الاستخدام العالية والوقت المستغرق. الهدف من هذا البحث هو تسهيل عملية اختبار تجربة المستخدم وتحسين أداء المواقع الالكترونية وأمانها وإمكانية الوصول إليها من خلال تطوير نظام متكامل لاختبار تجربة المستخدم يعتمد على أتمتة العمليات الروبوتية (Robotic Process Automation) وفحص أداء وسرعة الموقع والأمان وإمكانية الوصول لأي موقع الكتروني في نظام واحد. ناقشت الدراسات السابقة أهمية اتباع المواقع الالكترونية لإرشادات HCI وقام العديد من الباحثين بإجراء اختبارات على عينات مواقع الكترونية مختلفة كمواقع تعليمية وحكومية وفحص مدى اتباع هذه المواقع لإرشادات HCI واستخدم بعضهم طرقا تقليدية واستخدم آخرون أدوات فحص أتمتة متعددة لفحص الأمان والأداء وغيرها من المعايير والمتغيرات. ولعل أبرز ما لاحظناه هو عدم وجود نظام واحد لفحص جميع هذه المعايير، حيث يتطلب استخدام أكثر من أداة وأكثر من اشتراك حتى يتم فحص جميع المعايير. في النظام المقترح، قمنا بتطوير روبوتات أتمتة العمليات الروبوتية (Robotic Process Automation Bots) المتصلة والمتكاملة مع أدوات مختلفة لفحص الأداء والأمان وإمكانية الوصول، حيث تم ربط النظام بأداة JMeter لفحص أداء وسرعة الموقع، أداة ImmuniWeb لفحص الأمان، وWAVE لفحص قابلية الوصول حسب معايير وارشادات HCI. لاختبار النظام، قمنا باختيار ستة عشر موقعا الكترونيا محليا فلسطينيا من أربع قطاعات ومجالات مختلفة وهي التعليم العالي والحكومي والإخباري والتسويق الالكتروني، وقد تم مراجعة النتائج وتسليط الضوء على أبرز المشاكل في كل موقع الكتروني. من خلال النظام المقترح، وبناء على نتائج الاختبارات المختلفة، وجدنا ان توظيف روبوتات أتمتة العمليات الروبوتية (Robotic Process Automation Bots) هي طريقة فعالة لتحسين تجربة المستخدم وزيادة رضا الزبائن عن الموقع الالكتروني، بالإضافة الى تحسين الأداء، والأمان، وتوفير المال، والوقت والجهد.
- ItemScholar Search Relevancy Optimization(Al-Quds University, 2020-08-10) Rida Rohi Taher Abdelmajid; رضا روحي طاهر عبدالمجيدThe massive amount of information published every day has made it difficult to conduct a more relevant search for educational materials, because of loose requirements regarding metadata content. Many researchers have pointed out the importance of metadata and the efficiency of machine learning, deep learning algorithms, and language processing in text classification and semantic similarity by discussing the efficiency of algorithms without indicating how to use these algorithms to enhance search results based on metadata. This study aims to test some of the natural language processing tasks, machine learning, and deep learning techniques, in addition to the role of metadata in enhancing search results. This study propose a framework called "Al-Quds System" as a recommender and assistance system to enables the author to add as much relevant information as possible to their publications to enhance retrievability by increasing the opportunity of displaying documents and texts in the search results. This study shows the possibility of enhancing search results by combining language processing, deep learning, and metadata. In addition, this shows that documents can classified with high accuracy whether using traditional classifiers such as Multinomial Naïve Bayes (MNB) with 85% accuracy or deep learning such as Convolutional Neural Network (CNN) with 79% accuracy, and the accuracy of classifiers depends primarily on features extracting. In addition, the semantic similarity of words or sentences can computed by representing words into vectors, the closer the cosine value to 1, the smaller the angle, and the higher match between words vectors. Which had a positive impact on the Al-Quds system as a recommender and assistance system to use by the authors.
- ItemSemantic Resolution and Mapping in E-Learning System(AL-Quds University, 2009-04-11) ياسمين ابراهيم عزمي بالي; Yasmin Ibrahim azmi Bali; رشيد الجيوسي; Nedal Kafri; Nizar Awartani
- ItemTime Aware Ranking Algorithm for Scientific Publications(Al-Quds University, 2021-08-09) Moath Dawood Mahmoud Abudayeh; معاذ داود محمود ابوديةAfter the enormous evolution of the Web, the emergence of digital information resources and the universities and libraries have allowed access to their contents via the Internet, a large amount of data became available to users to conduct searches and queries. However, this huge content made it difficult to quickly access the required data using traditional search methods. These methods depend on matching keywords or determining the extent of relevance. As a result, the need for ranking algorithms emerged in information retrieval systems. The terms ranking and evaluation are related because the ranking process is based on certain evaluation criteria and indicators. One of the most widely used algorithms for ranking scientific publications is the PageRank algorithm. It evaluates publications using popularity metrics based on the linking analysis approach. However, this algorithm was designed mainly to rank Web pages rather than scientific publications. Therefore, due to the different nature of Web networks and citation networks, it resulted in unfair rankings and bias in favor of old publications. The reason for this bias is in its heavy reliance on the number of citations as an indicator of popularity. This study focuses on solving the problem of bias in favor to old publications by introducing a new indicator called Citation Change Rate and integrating it with PageRank algorithm. Time information such as publication date and citation occurrence time are used along with citation data in the ranking process in order to produce time aware rankings. The proposed ranking method was tested on a dataset of scientific papers in the field of medical physics. They were published in the Dimensions database from 2005 to 2017. The results showed that the proposed ranking method took into account the characteristics and dynamic nature of the publishing network. This resulted in fair rankings for publications of different ages, and less bias against recent publications. The results have shown that 13 papers published in the last four years based on the new ranking scores, are now among the top 100 ranked papers of this dataset. In addition, there were no radical changes or unreasonable jumps in the ranking process. Therefore, the correlation rate between the results of the proposed ranking method and the original PageRank algorithm was 90% based on the Spearman Correlation Coefficient. This is an indication of the quality and accuracy of the results.
- ItemTowards the Automatic Generation of Arabic Lexical Recognition Tests.(Al-Quds University, 2020-08-22) Mohammad Khalil Ahmad Nassar; محمد خليل احمد نصارLexical Recognition Test (LRT) themes are one of the main methods that are widely used to measure language proficiency of some common languages such as German, English and Spanish. However, similar researches for Arabic language are at development stages, and existing proposals mainly use human-generated methods. In this thesis work, we suggested a new methodology, based on a newly developed algorithm that aimed to design and construct an Arabic LRT. The developed algorithm generates nonwords dynamically based on Arabic language special characteristics. The main four characteristics that this developed algorithm considers are: orthography (spelling), phonology (pronunciation), n-grams and the word frequency map, which is an important factor to create a multi-level test. The developed algorithm differs from previous approaches in the sense that the previous approaches used Markov models to create nonwords while the developed algorithm use some of Arabic language letter characteristics to create high quality nonwords. With the help of a large processed dataset of vocabularies (14,000,849), the developed algorithm was experimented. For this purpose, a Web-based application, following the suggested methodology, was designed and implemented to facilitate the process of setting up the LRT, and to manage and analyze learners’ responses. The experimental results have shown that the LRT questions that were automatically generated by the proposed system had confused the learners, this is clear from the output of the confusion matrix which showed that 1/3 of the generated nonwords were able to distract the learners. Each vocabulary item had (49) responses; responses for real words (48% correct answers, 52% in-correct answers). For the nonwords responses about 30% incorrect answers; this means the system was able to confuse the learner by selecting them as real words, and 70% correct answers; this means that the responses did not confuse the learner. Consequentially, the results of recall and precision have smaller values, 0.28 and 0.54, respectively. The study also analyzed other study dimensions towards achieving test scores. These dimensions are word length, word type, and knowledge of Arabic as the number of learning years, learner’s main language, and gender. The results have shown that the most affecting dimension was the type of generating the nonwords, especially the orthographical one, and it would be better when the replacement letter is located in the intersection of both orthographical and phonological similarity groups, since most of the confusing vocabularies (277) were belonged to this deterministic item. To validate the accuracy of the developed approach, we developed a version of the Arabic LRT. This version consisted of two sections: real words and nonwords. The nonwords section had been divided into two equal parts; vocabularies that were automatically generated from the developed algorithm, and the second part contained vocabularies that were generated manually by Arabic language expert, who used the same rules being implemented in the algorithm. The comparative study showed that results the accuracy of both methods is almost the same
- ItemUser Experience Framework of Arabic-English Websites Using Robotic Process Automation(Al-Quds University, 2022-09-03) Heba Faek Dyab Sheeb; هبة فايق ذياب شيبTesting the usability of the website is very important because it will indicate how much users can interact with web pages easily. There are many ways used to test the usability of the website whether based on users as empirical studies or experts who evaluate the usability based on guidelines or standard like heuristic evaluation but, most of the research focus more on three main factors that are effectiveness, efficiency, and satisfaction of end users. Moreover, available automated tools are incomplete tools because they usually test the usability of website by focusing on only one or limited usability variables like fonts, colors, accessibility, security or other variables. However, most of these tools and research focus more on English websites. A usability testing platform that measure the usability of the webpage using the Robotic Process Automation (RPA) technique in term of layouts and design for the main common sections on the website that are header especially logo place, main navigation, carousel, body and footer based on Neilson’s guidelines and principle was built to be used as comprehensive and general technique to measure the usability of Arabic and English website with least cost, effort and time without need to access the source code of the website. The tool was used and validated on 15 webpage samples selected from three different categories that have high visitors and traffic in Palestine which are high education, governmental and media websites, the tool has ability to find the HCI violations on tested website then visualize the result in different ways like tabular, statistical, comparative, layouts and heatmap. The results show all tested website have a usability violation on their logo with highest success rate 85.7% for U2 and highest fail rate 71.4% for 4 but, for navigation the results shows U1, U4, M2 and M4 get highest success rate of 90.9% while N3 gets the highest fail rate of 54.5%, for carousel, all news and media agencies don’t have carousel on their homepages where all other samples get 100% success rate except U3, M1, M2 and M3 with success rate 75% but all news and media agencies show bad success rate up to 65% for footer while universities have the best success rate of 75% as lowest success rate RPA usability testing tools result showed the tool is reliable and can be used to test the usability and improve the usability time and effort also, it is valid for both English and Arabic websites. إن عملية فحص سهولة إستخدام المواقع الالكترونية والأنظمة المطورة باستخدام تقنية الويب مهم وأساسي وذلك لأنه يعكس مدى قدرة المستخدم على إستخدام النظام أو الموقع الإلكتروني بسهولة ويسر. هناك العديد من الطرق المتبعة في فحص سهولة المواقع الإلكترونية سواء كانت عن طريق إجراء تجارب عملية على مستخدمين أو من خلال تقييم المواقع الإلكترونية من خلال خبراء مختصين في هذا المجال بالاعتماد على المبادئ والمعايير العالمية ولكن معظم الأبحاث التي أجريت تركز وبشكل رئيسي على ثلاثة متغيرات رئيسية وهي فعالية وكفاءة و رضا المستخدمين عن هذه المواقع. بالرغم من التنوع الكبير في التقنيات والطرق المتبعة خصوصا بعد ظهور طرق آلية تساعد في فحص ميزات وأجزاء المواقع المختلفة،إلا أنه لا تزال الطرق التقليدية الأكثر إستخداماً وشيوعاً في الأبحاث العلمية مثل استخدام الاستبيانات والمقابلات وعمل قوائم بالمعايير المعتمدة ومطابقتها على المواقع المراد فحصها وغيرها من الطرق المختلفة ولكن جميع هذه الطرق تحتاج الكثير من الوقت والجهد بالإضافة إلى التكلفة المرتفعة. أما بالنسبة الى الطرق الالية الموجودة فهي تقدم فحص جزئية واحدة أو جزئيات وميزات محدودة في المواقع الإلكترونية مثل فحص الخطوط والألوان وسهولة الوصول ودرجة الأمان وغيرها من المتغيرات الأخرى وبالإضافة الى كونها تناسب المواقع الإنجليزية بشكل أكبر. لذلك يقدم هذا البحث طريقة وأداة جديدة في قياس سهولة المواقع الإلكترونية سواء كانت باللغة العربية والانجليزية من خلال استعمال تقنية أتمتة العمليات الروبوتية بالرجوع إلى مبادئ نيلسون المعتمدة في مجال فحص سهولة المواقع؛ حيث تقدم هذه الأداة فحص لسهولة الموقع من ناحية تصميم الموقع وخصوصا الأجزاء الرئيسية الواجب توافرها وهي ترويسة الصفحة وبالتحديد شعار المؤسسة أو الشركة والقائمة الرئيسية وعارض الصور ومنطقية المحتوى وأخيرا جزئية ذيل الموقع. وأهم ما يميز هذه الطريق أنها لا تحتاج إلى وقت وجهد كبير في إجراء فحص سهولة الموقع بالإضافة الى التكلفة المنخفضة وأيضا عدم الحاجة للوصول الى النسخة الأصلية لبرمجة الموقع. تم فحص هذه الأداة على خمسة عشر موقع مختلف تندرج تحت ثلاثة أقسام رئيسية وهي مواقع التعليم العالي (الجامعات) وعددها أربعة، ومؤسسات حكومية (وزارات) وعددها أربعة وأيضا مواقع إعلامية تختص بالأخبار وعددها ثلاثة؛ حيث تم فحص الصفحات الرئيسية لهذه المواقع بالإضافة الى صفحة عن الموقع للجامعات فقط. أظهرت هذه الأداة قدرتها على إكتشاف مواقع الخلل في التصميم في جميع المواقع التي تم فحصها وأظهرت المواقع التي يجب على المبرمج تصحيحها ولا تطابق مع مبادئ تفاعل الإنسان مع الحاسوب حيث تم عرض النتائج بأكثر من طريقة سواء كانت من خلال جداول واحصاءات أو من خلال إعادة تصميم الموقع لمعرفة طريقة المتبعة وهل تتلائم مع التصميم الشائع للمواقع بالإضافة إلى رسم خريطة للموقع تبين مواقع الأخطاء وكما أثبتت هذه الأداة سهولتها وسرعتها وفعاليتها.