Search Results Heading

MBRLSearchResults

mbrl.module.common.modules.added.book.to.shelf
Title added to your shelf!
View what I already have on My Shelf.
Oops! Something went wrong.
Oops! Something went wrong.
While trying to add the title to your shelf something went wrong :( Kindly try again later!
Are you sure you want to remove the book from the shelf?
Oops! Something went wrong.
Oops! Something went wrong.
While trying to remove the title from your shelf something went wrong :( Kindly try again later!
    Done
    Filters
    Reset
  • Discipline
      Discipline
      Clear All
      Discipline
  • Is Peer Reviewed
      Is Peer Reviewed
      Clear All
      Is Peer Reviewed
  • Series Title
      Series Title
      Clear All
      Series Title
  • Reading Level
      Reading Level
      Clear All
      Reading Level
  • Year
      Year
      Clear All
      From:
      -
      To:
  • More Filters
      More Filters
      Clear All
      More Filters
      Content Type
    • Item Type
    • Is Full-Text Available
    • Subject
    • Country Of Publication
    • Publisher
    • Source
    • Target Audience
    • Donor
    • Language
    • Place of Publication
    • Contributors
    • Location
589 result(s) for "التعلم الآلي"
Sort by:
آليات تطبيق نظم الذكاء الاصطناعي في بيئة البيانات الضخمة
تصف هذه الدراسة المفاهيم ذات الصلة بالبيانات الضخمة والذكاء الاصطناعي، وتحلل المتطلبات الوظيفية والتقنية للذكاء الاصطناعي في بيئة البيانات الضخمة، كما تهدف الدراسة إلى التعرف على آليات تطبيق تقنيات الذكاء الاصطناعي التي تعتمد على البيانات الضخمة والتعرف على كيفية تطبيق الذكاء الاصطناعي في إطار البيانات الضخمة، وتسعى الدراسة إلى تحليل واستكشاف المجالات الرئيسية المتعلقة بالذكاء الاصطناعي مع البيانات الضخمة ومناقشة القضايا المفتوحة لتقديم اتجاهات بحثية جديدة في مجال تحليلات البيانات الضخمة مع الذكاء الاصطناعي، وقدمت مراجعة علمية شاملة عن آليات تطبيق الذكاء الاصطناعي في بيئة البيانات الضخمة واعتمدت الدراسة على المنهج الوصفي التحليلي من خلال قائمة مراجعة تضم العناصر التالية: (أنواع تقنيات الذكاء الاصطناعي الأكثر شيوعا في تحليلات البيانات الضخمة، وخوارزميات التعلم تحت الإشراف في البيانات الضخمة، ومزايا تقنيات الذكاء الاصطناعي مع البيانات الضخمة، وكيفية عمل الذكاء الاصطناعي في إطار البيانات الضخمة -المجالات الرئيسية لتطبيق الذكاء الاصطناعي -متطلبات تنفيذ الذكاء الاصطناعي مع البيانات الضخمة -التحديات والقضايا المفتوحة)، وتوصلت الدراسة إلى عدة نتائج من أهمها: هناك العديد من الدراسات التي تتعلق بالبيانات الضخمة ولكن تفتقر هذه الدراسات إلى المراجعة الكاملة والمنهجية لآليات تطبيق الذكاء الاصطناعي مع البيانات الضخمة، من أكثر تحديات الذكاء الاصطناعي مع البيانات الضخمة يأتي في الترتيب الأول معالجة كمية كبيرة من البيانات بنسبة 65 % وتوصي الدراسة بزيادة الاهتمام بالدراسات التي تتعلق بتطبيق آليات الذكاء الاصطناعي مع البيانات الضخمة وضرورة تنفيذ تقنيات ذكاء اصطناعي مختلفة لتحليل هذه الكميات الضخمة من البيانات في الوقت الفعلي.
التعلم الآلي واستخراج البيانات الببليوجرافية من المواد النصية
في الآونة الأخيرة ذاع وانتشر مصطلح الذكاء الاصطناعي وتطبيقاته المختلفة، كالتعلم الآلي والتعلم العميق ومعالجة اللغة الطبيعية ورؤية الحاسب الآلي، واستخدم في العديد من القطاعات، ونتج عنه تطوير في الأعمال من حيث الأداء والسرعة والجودة، هذا التطوير امتد أيضا إلى المكتبات ومراكز المعلومات باعتبارها مؤسسات تقدم خدمات معرفية، ويلقي البحث الضوء على عملية استخراج البيانات الببليوجرافية من مصادر المعلومات وبخاصة المواد النصية التي تتضمن (الكتب والمقالات العلمية)، ويعد البحث تشجيعا لمؤسسات المعلومات ومؤسسات صناعة المعرفة وبالتحديد الناشرين والمكتبات ومراكز المعلومات على تبني استخدام أدوات استخراج البيانات الببليوجرافية، ويوفر النموذج المقترح إطارا عاما لاستخراج البيانات الببليوجرافية من مصادر المعلومات -النصية -العربية، وتسهيل عمل المفهرسين وليس إلغاء دورهم كاملا، وإن كان من الممكن أن تحجم التقنية من دور المفهرس، وقد تم ا لاعتماد على المنهج الوصفي التحليلي لتوضيح ماهية الذكاء الاصطناعي وتطبيقاته، والتعريف بماهية الفهرسة الوصفية، وتوضيح دور الناشر في عملية إنشاء التسجيلات الببليوجرافية، والاستفادة من إمكانات التعلم الآلي في استخراج البيانات الببليوجرافية من مصادر المعلومات النصية، وتضمنت الدراسة عرضا لبنية ومكونات النموذج المقترح لاستخراج البيانات الببليوجرافية خروجا من ذلك بعدد من النتائج والتوصيات.
Taming the Faceless Beast
Objective: To deal with the potential deepfake abilities demonstrated by its diverse applications, legal systems have the choice to block this technology completely, allow it and deal with its issues later, or legislate it. Chinese legal system, for example, chose to ban the technology and its applications. If the choice was legislating deepfake, then the question will be what is the most suitable legal ground to use? Methodology: To answer this question, legislators should consider the national laws and the culture of any given legal system by using analytic methodology to the current legislative. Results: Furthermore, it appears that one legal ground is not enough to legislate deepfake technology due to the vast applications of this technology. Also, the ideology of legal principles should be mature enough in order to be used as a legal ground when legislating deepfake. Conclusion: if the copyright law is not advanced in certain legal system, then that legal system cannot legislate deepfake based on copyright legal ground or the results will be insufficient. The deepfake legislating process should not imply prohibiting the technology; in fact, legislating deepfake can boost certain useful application.
Wordcloud Based R Programming as a Supplementary Tool for Critical Discourse Analysis
The qualitative analysis of written discourse has a solid literature. However, discussions on the use of online software programs for faster text analysis have started to gain popularity due to a technology dominant era with a bulk of etexts. Unlike online software tools for text analysis that entail internet connection, offline R programming with text mining packages, via certain codes, can visualize the text in a way that creates a proactive reader. The current research aims at investigating the integration of wordcloud based R programming with Fairclough model to develop the Fifth Settlement Languages Institution English department students' ability to critically analyze written discourse. The sample of the study included 30 students from the third year who were assigned a critical reading content as part of conversation course that targets the development of the four language skills. The pre-post research design proved the efficiency or wordcloud based R programming as a supplementary tool for discourse analysis.
Artificial Intelligence in Language Education
This paper tackles the concept of AI, its justification, and its applications in the field of education in general, and in the field of teaching/learning English Language, in particular. The paper focuses specifically on the incorporation of artificial intelligence (AI), which includes a wide range of technologies and methods, such as machine learning, adaptive learning, natural language processing, data mining, crowdsourcing, neural networks or an algorithm, into foreign language learning and teaching. First, the paper is concerned with changes brought to education in general and foreign language education specifically through the application of AI-powered tools and discusses ICALL (intelligent computer assisted language learning) as a subset of CALL. Second, it delineates the implementation of AI in the field of ESL/EFL. Third, it summarizes the consequences of applying AI-powered tools for foreign language education. Fourth, it discusses the benefits and challenges that the AI implementation entails. Finally, it puts forward a number of guidelines and recommendations for education policy-makers targeting the basic requirements for AI implementation.