we find the sequence (a, c, b, e, d). Clearly all the requirements are met in the sequence: a is followed by b and this b is followed by d, the same a is also followed by c and this c is followed by the same d.
Now consider episode E2 and again slide a window of length 5 from left to right. This pattern is much more frequent. Figure 3.11 shows all time windows in which the pattern occurs. In total there are 16 windows where E2 is embedded. Note that the only requirement is that both b and c occur: no ordering relation is defined.
Episode E3 does not occur in the time sequence if we use a window length of 5. There is no window of length of 5 where the sequence (a, b, c, d) is embedded. If the window length is extended to 6, E3 occurs once. The corresponding window starts at time 26. Here we find the sequence (a, e, b, e, c, d).
The support of an episode is the fraction of windows in which the episode occurs. For a window size of 5 time units, the support of E1 is 1/32, the support of E2 is
16/32 = 0.5, and the support of E3 is 0/32 = 0. Like for sequence mining and
association rule learning, we define a threshold for the support. All episodes having
a support of at least this threshold are frequent. For example, if the threshold is 0.2 then E2 is frequent whereas E1 and E3 are not.
The goal is to generate all frequent episodes. Note that there are typically many potential candidates (all partial orders over the set of event types). Fortunately, like in the Apriori algorithm, we can exploit a monotonicity property to quickly rule out bad candidates. To explain this property, we need to define the notion of a subepisode. E1 is a subepisode of E3 because E1 is a subgraph of E3, i.e., the nodes and arcs of E1 are contained in E3. E2 is a subepisode of both E1 and E3. It is easy to see that, if an episode E is frequent, then also all of its subepisodes are frequent. This monotonicity property can be used to speed-up the search process.
Frequent episodes can also be used to create rules of the form X ⇒ Y where X
is a subepisode of Y . As before the confidence of such a rule can be computed. In our example, rule E1 ⇒ E3 has a confidence of 0/1 = 0, i.e., a very poor rule. Rule
E2 ⇒ E1 has a confidence of 1/16.
Episode mining and sequence mining can be seen as variants of association rule
learning. Because they take into account the ordering of events, they are related to process discovery. However, there are many differences with process mining algorithms. First of all, only local patterns are considered, i.e., no overall process model is created. Second, the focus is on frequent behavior without trying to generate models that also exclude behavior. Consider, for example, episode E1 in Fig. 3.10. Also the time window (a, b, d, c, d) contains the episode despite the two occurrences of d. Therefore, episodes cannot be read as if they are process models. Moreover, episodes cannot model choices, loops, etc. Finally, episode mining and sequence mining cannot handle concurrency well. Sequence mining searches for sequential patterns only. Episode mining runs into problems if there are concurrent episodes, because it is unclear what time window to select to get meaningful episodes.
Results (
Thai) 1:
[Copy]Copied!
เราค้นหาลำดับที่ (a, c, b, e, d) ตรงตามความต้องการชัดเจนทั้งหมดในลำดับ: เป็นตามด้วย b และ b นี้จะตาม ด้วย d เหมือนยังตามด้วย c และ c นี้จะตาม ด้วย d เหมือนกันตอนนี้ พิจารณาตอน E2 และอีก ภาพนิ่งหน้าต่างยาว 5 จากซ้ายไปขวา รูปแบบนี้เป็นบ่อยมาก รูปที่ 3.11 แสดงหน้าต่างเวลาทุกรูปแบบเกิดขึ้น ทั้งหมด มี 16 windows ที่ฝัง E2 หมายเหตุที่ความต้องการเฉพาะ ที่ b และ c เกิดขึ้น: มีกำหนดความสัมพันธ์ไม่สั่งการE3 ตอนเกิดขึ้นในลำดับเวลาถ้าเราใช้ความยาวหน้าต่าง 5 ไม่มีหน้าต่างความยาว 5 ตำแหน่งลำดับ (a, b, c, d) ถูกฝังไว้ ถ้าความยาวของหน้าต่างจะขยายไปยัง 6, E3 เกิดขึ้นครั้งเดียว งานเริ่มเวลา 26 ที่นี่เราหาลำดับ (a, e, b, e, c, d)สนับสนุนตอนเป็นเศษส่วนของ windows ตอนเกิดขึ้น สำหรับหน้าต่างขนาด 5 หน่วยเวลา การสนับสนุนของ E1 เป็น 1/32 สนับสนุนของ E216/32 = 0.5 และการสนับสนุนของ E3 0/32 = 0 ต้องการทำเหมืองแร่ลำดับ และกฎความสัมพันธ์การเรียนรู้ เรากำหนดขีดจำกัดสำหรับการสนับสนุน จำนวนตอนทั้งหมดที่มีการสนับสนุนของที่นี้จำกัดอยู่บ่อย ๆ ตัวอย่าง ถ้าขีดจำกัด 0.2 แล้ว E2 ได้บ่อย โดยที่ E1 และ E3เป้าหมายคือการ สร้างบ่อยตอนทั้งหมด สังเกตว่า มีผู้ที่มีศักยภาพโดยทั่วไปมาก (บางส่วนใบสั่งทั้งหมดผ่านชุดของเหตุการณ์ชนิด) โชคดี เช่นในอัลกอริทึม Apriori เราสามารถใช้คุณสมบัติ monotonicity อย่างรวดเร็วออกกฎผู้สมัครไม่ เราต้องการกำหนดแนวคิดของ subepisode ที่อธิบายนี้ E1 เนื่องจาก E1 เป็น subgraph ของ E3 เช่น subepisode ของ E3 เป็น โหนดและส่วนโค้งของ E1 อยู่ใน E3 E2 คือ subepisode ของ E1 และ E3 ซึ่งง่ายต่อการดู ถ้าตอนมี E เป็นบ่อย แล้วยัง subepisodes ของทั้งหมดใช้บ่อย นี่ monotonicity สามารถใช้เร่งการค้นหาได้บ่อยตอนยังสามารถใช้เพื่อสร้างกฎของฟอร์ม X ⇒ Y ที่ Xเป็น subepisode ของ Y เป็นก่อนสามารถคำนวณความเชื่อมั่นของกฎดังกล่าว ในอย่าง ⇒กฎ E1 E3 มีความเชื่อมั่นของ 0/1 = 0 เช่น กฎยาก กฎE2 ⇒ E1 มีความเชื่อมั่นของ 1/16สามารถเห็นตอนที่ทำเหมืองแร่และเหมืองแร่ลำดับเป็นตัวแปรความสัมพันธ์กฎlearning. Because they take into account the ordering of events, they are related to process discovery. However, there are many differences with process mining algorithms. First of all, only local patterns are considered, i.e., no overall process model is created. Second, the focus is on frequent behavior without trying to generate models that also exclude behavior. Consider, for example, episode E1 in Fig. 3.10. Also the time window (a, b, d, c, d) contains the episode despite the two occurrences of d. Therefore, episodes cannot be read as if they are process models. Moreover, episodes cannot model choices, loops, etc. Finally, episode mining and sequence mining cannot handle concurrency well. Sequence mining searches for sequential patterns only. Episode mining runs into problems if there are concurrent episodes, because it is unclear what time window to select to get meaningful episodes.
Being translated, please wait..

Results (
Thai) 2:
[Copy]Copied!
เราพบว่าลำดับ (A, C, B, E, D) เห็นได้ชัดว่าทุกความต้องการที่จะพบในลำดับที่: จะตามด้วยบีแอนด์บีนี้จะตามด้วย D, จะตามยังเดียวกันโดย C และ C นี้จะตามด้วย d เดียวกัน.
ตอนนี้พิจารณาตอน E2 และอีกครั้งเลื่อนหน้าต่าง ความยาว 5 จากซ้ายไปขวา รูปแบบนี้มากขึ้นบ่อยครั้ง รูปที่ 3.11 แสดงให้เห็นหน้าต่างตลอดเวลาซึ่งในรูปแบบที่เกิดขึ้น ในขณะนี้มี 16 หน้าต่างที่ E2 จะถูกฝังอยู่ โปรดทราบว่าข้อกำหนดเพียงอย่างเดียวคือทั้ง B และ C เกิดขึ้น:. ไม่มีความสัมพันธ์กับการสั่งซื้อที่กำหนดไว้ตอน E3 ไม่ได้เกิดขึ้นในลำดับเวลาถ้าเราใช้ระยะเวลาในหน้าต่างของหน้าต่าง 5. มีความยาว 5 ไม่เป็นที่ลำดับ ( b, c, d) จะถูกฝังอยู่ ถ้าความยาวหน้าต่างจะขยายไปยัง 6, E3 เกิดขึ้นครั้งเดียว หน้าต่างที่สอดคล้องกันเริ่มต้นที่ 26 เวลาที่นี่เราหาลำดับ (อี, B, E, C, D). การสนับสนุนจากตอนที่เป็นส่วนของหน้าต่างที่อยู่ในเหตุการณ์ที่เกิดขึ้น สำหรับขนาดของหน้าต่างของ 5 หน่วยเวลาการสนับสนุนของ E1 คือ 1/32, การสนับสนุนของ E2 คือ16/32 = 0.5, และการสนับสนุนจาก E3 คือ 0/32 = 0 เช่นเดียวกับลำดับสำหรับการทำเหมืองและการเชื่อมโยงการเรียนรู้กฎ เรากำหนดเกณฑ์สำหรับการสนับสนุน ตอนทั้งหมดมีการสนับสนุนอย่างน้อยเกณฑ์นี้เป็นประจำ ตัวอย่างเช่นถ้าเกณฑ์เป็น 0.2 แล้ว E2 บ่อยในขณะที่ E1 E3 และไม่ได้. มีเป้าหมายที่จะสร้างเอพบ่อย ทราบว่ามีมักจะมีผู้ที่มีศักยภาพจำนวนมาก (คำสั่งซื้อบางส่วนทั่วชุดของชนิดเหตุการณ์) โชคดีเหมือนในขั้นตอนวิธี Apriori เราสามารถใช้ประโยชน์จากทรัพย์สิน monotonicity ได้อย่างรวดเร็วออกกฎผู้สมัครที่ไม่ดี เพื่ออธิบายสถานที่ให้บริการนี้เราจำเป็นต้องกำหนดความคิดของ subepisode E1 เป็น subepisode ของ E3 เพราะ E1 เป็น subgraph ของ E3 คือโหนดและโค้งของ E1 มีอยู่ในงาน E3 E2 เป็น subepisode ของทั้งสองและ E1 E3 มันเป็นเรื่องง่ายที่จะเห็นว่าถ้าตอน E บ่อยแล้วยังทุก subepisodes ที่มีบ่อย สถานที่ให้บริการ monotonicity นี้สามารถนำมาใช้เพื่อเพิ่มความเร็วขึ้นขั้นตอนการค้นหา. เอพบ่อยนอกจากนี้ยังสามารถใช้ในการสร้างกฎของรูปแบบ X ⇒ Y ที่ X เป็น subepisode ของ Y ในฐานะที่เป็นก่อนที่ความเชื่อมั่นของการปกครองดังกล่าวสามารถคำนวณได้ ในตัวอย่างของเราปกครอง⇒ E1 E3 มีความเชื่อมั่นของ 0/1 = 0 คือกฎที่น่าสงสารมาก กฎE2 E1 ⇒มีความเชื่อมั่นของ 1/16. การทำเหมืองแร่และเหมืองแร่ตอนลำดับสามารถมองเห็นเป็นสายพันธุ์ของกฎสมาคมการเรียนรู้ เพราะพวกเขาคำนึงถึงการสั่งซื้อของเหตุการณ์ที่พวกเขาจะดำเนินการที่เกี่ยวข้องกับการค้นพบ แต่มีความแตกต่างมากกับขั้นตอนวิธีการทำเหมืองแร่กระบวนการ แรกของทุกรูปแบบในท้องถิ่นเท่านั้นที่ได้รับการพิจารณาคือไม่มีรูปแบบกระบวนการโดยรวมจะถูกสร้างขึ้น ประการที่สองให้ความสำคัญกับพฤติกรรมที่พบบ่อยโดยไม่ต้องพยายามที่จะสร้างรูปแบบที่ยังไม่รวมพฤติกรรม พิจารณาตัวอย่างเช่นตอน E1 ในรูป 3.10 นอกจากนี้หน้าต่างเวลา (A, B, D, C, D) มีเหตุการณ์ที่เกิดขึ้นแม้จะมีการเกิดขึ้นของทั้งสอง d ดังนั้นตอนที่ไม่สามารถอ่านได้ราวกับว่าพวกเขามีรูปแบบกระบวนการ นอกจากนี้ตอนที่ไม่สามารถสร้างแบบจำลองทางเลือกลูป ฯลฯ สุดท้ายตอนการทำเหมืองแร่และเหมืองแร่ลำดับไม่สามารถจัดการกับการเห็นพ้องกัน การทำเหมืองแร่การค้นหาลำดับสำหรับรูปแบบตามลำดับเท่านั้น การทำเหมืองแร่ตอนที่วิ่งเข้าไปในปัญหาที่เกิดขึ้นถ้ามีตอนพร้อมกันเพราะมันเป็นสิ่งที่ไม่ชัดเจนหน้าต่างเวลาที่จะเลือกที่จะได้รับตอนที่มีความหมาย
Being translated, please wait..
