vietjack.com

200+ câu Trắc nghiệm tổng hợp Data mining có đáp án
Quiz

200+ câu Trắc nghiệm tổng hợp Data mining có đáp án

A
Admin
203 câu hỏiIT TestTrắc nghiệm tổng hợp
203 CÂU HỎI
1. Nhiều lựa chọn

Data Mining được định nghĩa là gì ? 

a. Là một quy trình tìm kiếm, phát hiện các tri thức mới, tiềm ẩn, hữu dụng trong cơ sở dữ liệu lớn 

b. Khai phá dữ liệu 

c. Khai khoáng dữ liệu 

d. Tìm kiếm thông tin trên Internet

2. Nhiều lựa chọn

Thuật ngữ Data Mining dịch ra tiếng Việt có nghĩa là:

a. Khai phá dữ liệu hoặc Khai thác dữ liệu

b. Khai phá luật kết hợp 

c. Khai phá tập mục thường xuyên 

d. Khai phá tri thức từ dữ liệu lớn

3. Nhiều lựa chọn

Thuật ngữ Knowledge Discovery from Databases – KDD có nghĩa là: 

a. Trích chọn các mẫu hoặc tri thức hấp dẫn (không tầm thường, ẩn, chưa biết và hữu dụng tiềm năng) từ tập dữ liệu lớn

b. Khai phá dữ liệu

c. Khai thác dữ liệu

d. Tìm kiếm dữ liệu

4. Nhiều lựa chọn

Phát biểu nào sau đây là đúng ?

a. Data Mining là một bước trong quá trình khai phá tri thức-KDD

b. Thuật ngữ Data Mining đồng nghĩa với thuật ngữ Knowledge Discovery from Databases 

c. Data Mining là quá trình tìm kiếm thông tin có ích trên Internet

d. Tiền xử lí dữ liệu là qua trình tìm kiếm thông tin có ích từ cơ sở dữ liệu lớn

5. Nhiều lựa chọn

Hiện nay, Data Mining đã được ứng dụng trong: 

a. Hệ quản trị CSDL SQL Server

b. Hệ quản trị CSDL Access 

c. Hệ quản trị CSDL Foxpro 

d. Microsoft Word 2010

6. Nhiều lựa chọn

Thuật ngữ Tiền xử lí dữ liệu bằng tiếng Anh là:

a. Data Preprocessing Khoa CNTT – Data Mining 1

b. Data Processing 

c. Preprocessing in Database 

d. Data Process

7. Nhiều lựa chọn

Cho CSDL Giao tác như hình vẽ, Số lượng giao dịch trong cơ sở dữ liệu là:

Cho CSDL Giao tác như hình vẽ,   Số lượng giao dịch trong cơ sở dữ liệu là:  a. 5  b. 16  c. 6  d. 10  (ảnh 1)

a. 5 

b. 16 

c. 6 

d. 10

8. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ, Độ hỗ trợ của tập mục X={A, M} là:  Cho CSDL giao dịch như hình vẽ,   Độ hỗ trợ của tập mục X={A, M} là:  a. 3 (60%)  b. 4 (80%)  c. 5 (100%)  d. 2 (40%)  (ảnh 1)

a. 3 (60%) 

b. 4 (80%)

c. 5 (100%) 

d. 2 (40%)

9. Nhiều lựa chọn

Thuật toán Apriori có nhược điểm chính là: 

a. Tốn nhiều bộ nhớ và thời gian. Không thích hợp với các mẫu lớn. Chi phí để duyệt CSDL nhiều. 

b. Không tìm được các tập thường xuyên 

c. Kết quả của thuật toán không ứng dụng được trong các bài toán thực tế 

d. Thuật toán quá phức tạp, khó hiểu

10. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Tập nào là tập mục thường xuyên thỏa Min_support:

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào là tập mục thường xuyên thỏa Min_support: (ảnh 1)

a. {A,C} 

b. {D} 

c. {A,D} 

d. {B, C, D}

11. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Tập nào không là tập mục thường xuyên: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào không là tập mục thường xuyên: (ảnh 1)

a. {A,C,D} 

b. {A,E} 

c. {A, C} 

d. {B,E}

12. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Tập nào không là tập mục thường xuyên: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào không là tập mục thường xuyên: (ảnh 1)

a. {D} 

b. {A,E} 

c. {A, C} 

d. {B,E}

13. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Sử dụng thuật toán Apriori, sau lần duyệt thứ nhất, tập mục chứa 1-item bị loại bỏ là:  Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).   Sử dụng thuật toán Apriori, sau lần duyệt thứ  (ảnh 1)

a. {D} 

b. {A} 

c. {B} 

d. {A}, {D}

14. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Tập nào không là tập mục thường xuyên:  Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào không là tập mục thường xuyên:  a. {B, D}   (ảnh 1)

a. {B, D} 

b. {A, E} 

c. {A, C} 

d. {B, E}

15. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Khoa CNTT – Data Mining 4 Tập nào là tập mục thường xuyên với độ hỗ trợ là = 70%  Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Khoa CNTT – Data Mining 4  Tập nào là tập  (ảnh 1)

a. Không có tập nào 

b. {A, E} 

c. {A, C, D} 

d. {B, C, D}

16. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%. Luật kết hợp nào thỏa mãn các điều kiện đã cho: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence  = 50%.   Luật kết hợp nào thỏa (ảnh 1)

a. A-->C 

b. A-->D 

c. A--> E 

d. AB-->C

17. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%. Luật kết hợp nào thỏa mãn các điều kiện đã cho:  Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence  = 50%.   Luật kết hợp nào (ảnh 1)

a. B-->E

b. A-->D 

c. A--> E 

d. AB-->C

18. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%. Luật kết hợp nào thỏa mãn các điều kiện đã cho:  Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence  = 50%.   Luật kết hợp nào thỏa (ảnh 1)

a. A-->C 

b. A-->D 

c. A--> E 

d. AB-->C

19. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%. Luật kết hợp nào có độ tin cậy = 100%  Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence  = 50%.   Luật kết hợp nào c (ảnh 1)

a. A-->C 

b. A-->D 

c. AD--> E 

d. AB-->C

20. Nhiều lựa chọn

Cho tập mục thường xuyên X={A, B}, từ tập X có thể sinh ra các luật kết hợp sau: 

a. A--> B, B--> A, không tính luật AB --> và --> AB 

b. A-->B, B--> A, A--> và --> B 

c. A--> B 

d. B--> A

21. Nhiều lựa chọn

Cho FP-Tree như hình vẽ, có mấy đường đi kết thúc ở nút m  Cho FP-Tree như hình vẽ, có mấy đường đi kết thúc ở nút m    a. 2 đường đi  b. 1 đường đi  c. 3 đường đi (ảnh 1)

a. 2 đường đi 

b. 1 đường đi

c. 3 đường đi 

d. 4 đường đi

22. Nhiều lựa chọn

Cho FP-Tree như hình vẽ, có mấy đường đi kết thúc ở nút p  Cho FP-Tree như hình vẽ, có mấy đường đi kết thúc ở nút p a. 2 đường đi  b. 1 đường đi  c. 3 đường đi   (ảnh 1)

a. 2 đường đi 

b. 1 đường đi 

c. 3 đường đi 

d. 4 đường đi

23. Nhiều lựa chọn

Hai thuật toán FP-Growth và Apriori dùng để: 

a. Tìm các tập mục thường xuyên 

b. Tìm các luật kết hợp 

c. Tìm các tập mục có k - item 

d. Thực hiện công việc khác

24. Nhiều lựa chọn

Phương pháp nào không phải là phương pháp phân lớp: 

a. Chia các đối tượng thành từng lớp để giảng dạy

b. Phân lớp dựa trên Cây quyết định 

c. Phân lớp dựa trên xác suất Bayes 

d. Phân lớp dựa trên Mạng Nơron

25. Nhiều lựa chọn

Khi chọn 1 thuộc tính A để làm gốc cây quyết định. Nếu thuộc tính A có 3 giá trị thì cây quyết định có bao nhiêu nhánh? 

a. 3 nhánh 

b. 2 nhánh 

c. Nhiều nhánh 

d. Phải biết kết luận C có bao nhiêu giá trị thì mới phân nhánh được

26. Nhiều lựa chọn

Sử dụng thuật toán ILA, khi kết luận C có n giá trị thì ta cần chia bảng chứa các ví dụ học thành mấy bảng con: 

a. n bảng con 

b. 2 bảng con 

c. không phải chia

d. Thành nhiều bảng tùy theo giá trị của n

27. Nhiều lựa chọn

Cho giá trị của A là 3500, Sử dụng phương pháp chuẩn hóa Tỷ lệ Thập phân– decimal scale, giá trị của A sau khi chuẩn hóa là: 

a. 0.35 

b. 3.5 

c. 0.015 

d. Giá trị khác

28. Nhiều lựa chọn

Gom cụm (clustering) gì: 

a. Phân cụm dữ liệu(Data Clustering) hay phân cụm, cũng có thể gọi là phân tích cụm là quá trình chia một tập các đối tượng thực thể hay trừu tượng thành nhóm các đối tượng sao cho các phần tử trong cùng một nhóm thì có mức độ tương tự nhau hơn là giữa các phần tử của nhóm này với các phần tử của nhóm khác. 

b. Phân cụm dữ liệu(Data Clustering) hay phân cụm, cũng có thể gọi là phân tích cụm là qúa trình chia một tập các đối tượng thực thể hay trừu tượng thành nhóm các đối tượng sao cho các phần tử khác nhóm thì có mức độ tương tự nhau hơn là giữa các phần tử trong cùng một nhóm. 

c. Phân cụm dữ liệu(Data Clustering) hay phân cụm, cũng có thể gọi là phân tích cụm là quá trình chia một tập các đối tượng thực thể hay trừu tượng thành nhóm các đối tượng sao dễ sử dụng nhất. 

d. Phân cụm dữ liệu(Data Clustering) hay phân cụm, cũng có thể gọi là phân tích cụm là quá trình chia các đối tượng thành từng nhóm sau cho số nhóm là ít nhất.

29. Nhiều lựa chọn

Thuật ngữ tiếng Anh nào có nghĩa là phân cụm dữ liệu 

a. Data Clustering 

b. Data Classification

c. Association Rule 

d. Data Mining

30. Nhiều lựa chọn

Thuật ngữ tiếng Anh nào có nghĩa là Khai phá dữ liệu 

a. Data Mining 

b. Data Clustering

c. Data Classification 

d. Association Rule

31. Nhiều lựa chọn

Thuật ngữ tiếng Anh nào có nghĩa là Phân lớp dữ liệu 

a. Data Classification

b. Data Clustering

c. Data Mining 

d. Association Rule

32. Nhiều lựa chọn

Có N phần tử cần chia thành 1 cụm. Hỏi có bao nhiêu cách chia cụm: 

a. 1 cách

b. 0 cách 

c. 2 cách 

d. N cách

33. Nhiều lựa chọn

Câu 41: Có N phần tử cần chia thành m cụm, với m>N. Hỏi có bao nhiêu cách chia cụm: 

a. 0 cách 

b. m cách 

c. 2 cách 

d. N cách

34. Nhiều lựa chọn

Có bao nhiêu thuật toán phân cụm: 

a. Rất nhiều 

b. Chỉ có 3 thuật toán Liên kết đơn, liên kết đầy đủ, k-mean  

c. Chỉ có 2 thuật toán Liên kết đơn và liên kết đầy đủ 

d. Chỉ có 2 thuật toán Liên kết đơn và k-mean

35. Nhiều lựa chọn

Trong thuật toán phân cụm k-mean, ban đầu k tâm được chọn: 

a. Chọn ngẫu nhiên 

b. Chọn k phần tử nằm ở tâm

c. Chọn k các phần tử có giá trị nhỏ nhất 

d. Chọn k phần tử có giá trị bằng giá trị trung bình của các phần tử trong tập dữ liệu

36. Nhiều lựa chọn

Sử dụng thuật toán k-mean để chia N điểm vào k cụm, khi đó: 

a. k<=N 

b. k=N 

c. k>N 

d. k khác N

37. Nhiều lựa chọn

Quá trình khai phá tri thức trong CSDL (KDD) có thể phân chia thành các giai đoạn sau: 

a. Trích chọn dữ liệu, tiền xử lý dữ liệu, biến đổi dữ liệu, khai phá dữ liệu, đánh giá và biểu diễn tri thức 

b. Tiền xử lý dữ liệu, biến đổi dữ liệu, khai phá dữ liệu, đánh giá và biểu diễn tri thức

c. Trích chọn dữ liệu, tiền xử lý dữ liệu, biến đổi dữ liệu, khai phá dữ liệu, khai phá luật kết hợp 

d. Tiền xử lý dữ liệu, phân lớp, phân cụm, đánh giá và biểu diễn tri thức

38. Nhiều lựa chọn

Các loại đặc trưng của dữ liệu:

a. Đặc trưng danh nghĩa, đặc trưng theo thứ tự, đặc trưng đo theo khoảng, đặc trưng đo theo tỷ lệ 

b. Đặc trưng danh nghĩa, đặc trưng theo thứ tự, đặc trưng đo theo khoảng, đặc trưng theo khối lượng 

c. Đặc trưng danh nghĩa, đặc trưng theo thứ tự, đặc trưng đo theo khoảng, đặc trưng theo chiều dài 

d. Đặc trưng theo thứ tự, đặc trưng đo theo khoảng, đặc trưng đo theo tỷ lệ

39. Nhiều lựa chọn

Một số bài toán điển hình trong khai phá dữ liệu là: 

a. Khai phá luật kết hợp, phân loại, phân cụm, hồi qui... 

b. Khai phá luật kết hợp, xây dựng máy tìm kiếm... 

c. Web mining, Text mining, mạng nơron… 

d. Bài toán nhận dạng, bài toán tìm kiếm thông tin, bài toán lựa chọn đặc trưng...

40. Nhiều lựa chọn

Một số thách thức lớn trong quá trình khai phá dữ liệu là (chọn đáp án đúng nhất): 

a. Dữ liệu quá lớn, dữ liệu bị thiếu hoặc nhiễu, sự phức tạp của dữ liệu, dữ liệu thường xuyên thay đổi... 

b. Trình độ của con người còn hạn chế, dữ liệu không được lưu trữ tập trung... 

c. Dữ liệu quá lớn, máy khai phá dữ liệu có tốc độ hạn chế... 

d. Tốc độ xử lý của máy tính còn hạn chế, dữ liệu thường xuyên thay đổi...

41. Nhiều lựa chọn

Một số lĩnh vực liên quan đến khai phá tri thức – KDD là: 

a. Machine Learning, Visualization, Statistics, Databases… 

b. Machine Learning, Programming, Statistics, Databases… 

c. Machine Learning, Visualization, Statistics, BioInfomatics… 

d. Support Vector Machine, Clustering, Statistics, Databases…

42. Nhiều lựa chọn

Khai phá dữ liệu có lợi ích gì?

a. Cung cấp hỗ trợ ra quyết định, dự báo, khái quát dữ liệu... 

b. Tìm kiếm các quy luật, tìm kiếm các cụm và phân loại dữ liệu 

c. Tìm kiếm nhanh thông tin, thống kê dữ liệu, chọn đặc trưng của dữ liệu... 

d. Tạo ra cơ sở tri thức mới, hỗ trợ dự báo thời tiết, dự báo động đất, dự báo sóng thần...

43. Nhiều lựa chọn

Khai phá dữ liệu có lợi ích gì? 

a. Cung cấp hỗ trợ ra quyết định, dự báo, khái quát dữ liệu... 

b. Tìm kiếm các quy luật, tìm kiếm các cụm và phân loại dữ liệu

c. Tìm kiếm nhanh thông tin, thống kê dữ liệu, chọn đặc trưng của dữ liệu... 

d. Tạo ra cơ sở tri thức mới, hỗ trợ dự báo thời tiết, dự báo động đất, dự báo sóng thần...

44. Nhiều lựa chọn

Làm sạch dữ liệu (Data Cleaning) là quá trình: 

a. Loại bỏ nhiễu và dữ liệu không nhất quán 

b. Tìm kiếm dữ liệu có ích 

c. Tìm kiếm dữ liệu có ích trong cơ sở dữ liệu lớn 

d. Tổ hợp nhiều nguồn dữ liệu khác nhau

45. Nhiều lựa chọn

Một số ứng dụng tiềm năng của Khai phá dữ liệu: 

a. Phân tích và quản lý thị trường, Quản lý và phân tích rủi ro, Quản lý và phân tích các sai hỏng, Khai thác Web, Khai thác văn bản (text mining)… 

b. Tìm kiếm văn bản, Tìm kiếm hình ảnh, Tìm kiếm tri thức mới trên Internet... 

c. Phân tích tâm lí khách hàng, Hỗ trợ kinh doanh, tối ưu hóa phần cứng máy tính... 

d. Phân tích thị trường chứng khoán, bất động sản, tìm kiếm dữ liệu bằng các máy tìm kiếm...

46. Nhiều lựa chọn

Các cơ sở dữ liệu cần khai phá là: 

a. Quan hệ, Giao tác, Hướng đối tượng, Không gian, Thời gian, Text, XML, Multi media, WWW, … 

b. Text, XML, Multi-media, WWW, …

c. Cơ sở dữ liệu khách hàng, cơ sở dữ liệu nghiên cứu không gian, cơ sở dữ liệu trong ngân hàng, cơ sở dữ liệu thống kê… 

d. Cơ sở dữ liệu tuyển sinh đại học, cơ sở dữ liệu dự báo thời tiết, cơ sở dữ liệu thống kê dân số…

47. Nhiều lựa chọn

Thuật ngữ Big Data có nghĩa là: 

a. Big data nói đến các tập dữ liệu rất lớn và phức tạp tới mức các kỹ thuật IT truyền thống không xử lí nổi.

b. Dữ liệu rất lớn 

c. Dữ liệu được tích hợp từ nhiều nguồn khác nhau 

d. Dữ liệu khổng lồ trên Internet

48. Nhiều lựa chọn

Thuật ngữ BioInfomatics có nghĩa là 

a. Giải quyết các bài toán sinh học bằng việc sử dụng các phương pháp của khoa học tính toán 

b. Sinh học phân tử 

c. Tìm kiếm dữ liệu mới từ sinh học 

d. Khai thác các thông tin có ích trong lĩnh vực y học

49. Nhiều lựa chọn

Phát biểu nào sau đây là đúng 

a. Data Mining là một bước quan trọng trong quá trình khai phá tri thức từ dữ liệu – KDD 

b. Tiền xử lí dữ liệu là chọn ra các đặc trưng tiêu biểu trong tập dữ liệu lớn 

c. Mọi dữ liệu đều có thể tìm kiếm được bằng máy tìm kiếm của Google 

d. Data Mining là công cụ giúp các lập trình viên dễ dàng tìm kiếm thông tin hơn

50. Nhiều lựa chọn

Làm sạch dữ liệu là: 

a. Điền giá trị thiếu, làm trơn dữ liệu nhiễu, định danh hoặc xóa ngoại lai, và khử tính không nhất quán 

b. Chuẩn hóa và tổng hợp 

c. Bước cuối cùng trong quá trình Data Mining 

d. Tích hợp CSDL, khối dữ liệu hoặc tập tin phức

51. Nhiều lựa chọn

Các bài toán thuộc làm sạch dữ liệu là: 

a. Xử lý giá trị thiếu, Dữ liệu nhiễu: định danh ngoại lai và làm trơn, Chỉnh sửa dữ liệu không nhất quán, Giải quyết tính dư thừa tạo ra sau tích hợp dữ liệu. 

b. Làm trơn theo biên, phương pháp đóng thùng, điền giá trị thiếu, Giải quyết tính dư thừa tạo ra sau tích hợp dữ liệu.

c. Phân cụm, phân lớp, hồi quy, biểu diễn dữ liệu. 

d. Phân cụm, tìm luật kết hợp, tìm kiếm đặc trưng

52. Nhiều lựa chọn

Cho một tập dữ liệu có n đặc trưng. Có bao nhiêu tập con không rỗng chứa các đặc trưng được lựa chọn: 

a. 2^n -1 

b. 2^n 

c. Vô số tập con 

d. n^2

53. Nhiều lựa chọn

Một số phương pháp loại bỏ dữ liệu nhiễu là: 

a. Bỏ qua bản ghi có dữ liệu bị thiếu, điền giá trị thiếu bằng tay, điền giá trị tự động

b. Loại bỏ dựa trên quan sát, loại bỏ khi lựa chọn đặc trưng 

c. Loại bỏ toàn bộ dữ liệu bị nhiễu và thay thế bằng tập dữ liệu mới, lựa chọn các đặc trưng quan trọng

d. Sử dụng các thuật toán phân lớp, phân cụm, tìm luật kết hợp

54. Nhiều lựa chọn

Cho bản ghi dữ liệu, giá trị của các thuộc tính như sau: X=(6, 2, 5, 7, 5, ?). Dấu hỏi là giá trị của thuộc tính bị thiếu. Sử dụng phương pháp tính trung bình giá trị của các thuộc tính của bản ghi hiện có, hãy cho biết vị trí dấu hỏi điền giá trị là bao nhiêu: 

a. 5 

b. 6 

c. 9 

d. Giá trị khác

55. Nhiều lựa chọn

Khi xử lý thiếu giá trị của các bản ghi dữ liệu, phương pháp ‘Bỏ qua bản ghi có giá trị thiếu’ chỉ thích hợp khi: 

a. Các bản ghi có dữ liệu bị thiếu chiếm tỷ lệ nhỏ trong toàn bộ dữ liệu 

b. Các bản ghi có dữ liệu bị thiếu chiếm tỷ lệ lớn trong toàn bộ dữ liệu

c. Có thể bỏ qua tất cả các bản ghi bị thiếu 

d. Không thể bỏ qua, phải tìm các giá trị để điền vào các bản ghi bị thiếu

56. Nhiều lựa chọn

Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các mục (item) trong CSDL. X là một tập chứa các mục thuộc I. Giao dịch hỗ trợ X là giao dịch chứa tất cả các mục có trong X. Độ hỗ trợ của tập mục X được định nghĩa là:

a. Support(X)=Số lượng giao dịch hỗ trợ X / N 

b. Support(X)=Số lượng giao dịch hỗ trợ X 

c. Support(X)=Số lượng giao dịch hỗ trợ X / N * |I|, trong đó |I| là tổng số mục trong CSDL 

d. Support(X)=Số lượng giao dịch hỗ trợ X *100%

57. Nhiều lựa chọn

Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các mục (item) trong CSDL. X, Y là tập chứa các mục thuộc I. Độ tin cậy của luật kết hợp X🡪 Y được định nghĩa là: 

a. Confidence(X🡪Y)=Số lượng giao dịch hỗ trợ cả X và Y / Số lượng giao dịch hỗ trợ X 

b. Confidence(X🡪Y)=Số lượng giao dịch hỗ trợ X / Số lượng giao dịch hỗ trợ Y 

c. Confidence(X🡪Y)=Số lượng giao dịch hỗ trợ cả X và Y / Số lượng giao dịch hỗ trợ Y 

d. Confidence(X🡪Y)=Số lượng giao dịch hỗ trợ cả X và Y /N

58. Nhiều lựa chọn

Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các mục (item) trong CSDL. X, Y là tập chứa các mục thuộc I. Độ hỗ trợ của luật kết hợp X🡪 Y được định nghĩa là:

a. Support(X🡪Y)=Số lượng giao dịch hỗ trợ cả X và Y / N 

b. Support(X🡪Y)=Số lượng giao dịch hỗ trợ cả X và Y / Số lượng giao dịch hỗ trợ Y 

c. Support(X🡪Y)=Số lượng giao dịch hỗ trợ cả X và Y / Số lượng giao dịch hỗ trợ X 

d. Support(X🡪Y)=Số lượng giao dịch hỗ trợ cả X / Số lượng giao dịch hỗ trợ Y

59. Nhiều lựa chọn

Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các mục (item) trong CSDL. Min_Supp là độ hỗ trợ tối thiểu. X là tập chứa các mục thuộc I. Tập mục X được gọi là tập mục thường xuyên (frequent itemset) nếu: 

a. Support(X)>=Min_Supp 

b. Support(X)<=Min_Supp

c. Support(X)=Min_Supp 

d. Support(X: Min_Supp/N

60. Nhiều lựa chọn

Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các mục (item) trong CSDL. Min_Supp là độ hỗ trợ tối thiểu, Min_Conf là độ tin cậy tối thiểu. X, Y là tập chứa các mục thuộc I. Luật kết hợp X🡪Y được chọn nếu: 

a. Support(X🡪Y)>=Min_Supp, Confidence(X🡪Y)>=Min_Conf 

b. Support(X🡪Y)=Min_Supp, Confidence(X🡪Y)=Min_Conf 

c. Support(X🡪Y)<Min_Supp, Confidence(X🡪Y)<Min_Conf 

d. Support(X🡪Y)>Min_Supp, Confidence(X🡪Y)=Min_Conf

61. Nhiều lựa chọn

Cho CSDL giao dịch gồm N mục phân biệt, tổng số các tập mục được sinh ra (không tính tập rỗng) là: 

a. 2^N - 1 

b. 2^N 

c. N 

d. Vô số tập mục

62. Nhiều lựa chọn

Cho A, B, C, D là các item và A-->BC là luật kết hợp thỏa mãn độ hỗ trợ tối thiểu Min_Sup và độ tin cậy tối thiểu Min_Conf. Hãy cho biết luật kết hợp nào sau đây chắc chắn thỏa mãn Min_Sup và Min_Conf mà không cần phải tính độ hỗ trợ và độ tin cậy:

a. AB-->C 

b. A-->D 

c. ABD-->C 

d. D-->C

63. Nhiều lựa chọn

Cho A, B, C, là các item và A-->BC là luật kết hợp thỏa mãn độ hỗ trợ tối thiểu Min_Sup và độ tin cậy tối thiểu Min_Conf. Ta thấy rằng luật kết hợp AB-->C cũng thỏa mãn điều kiện về độ hỗ trợ tối thiểu và độ tin cậy tối thiểu vì:

a. Conference(AB-->C) >= Conference(A-->BC) 

b. Conference(AB-->C) <= Conference(A-->BC) 

c. Conference(AB-->C: Conference(A-->BC) 

d. Chưa kết luận được AB-->C có thỏa độ hỗ trợ tối tiểu và độ tin cậy tối thiểu hay không

64. Nhiều lựa chọn

Cho A, B, C, D là các mục trong cơ sở dữ liệu giao dịch. Kết luận nào sau đây là sai: 

a. Support(ABC) < Support(ABCD) 

b. Support(ABC) >= Support(ABCD) 

c. Support(AB) >= Support(ABC) 

d. Support(AB) <= Support(A)

65. Nhiều lựa chọn

Phát biểu nào sau đây là đúng:

a. Confidence(AC--> B) >= Confidence(A--> BC) 

b. Confidence(AC--> B: Confidence(A--> BC) 

c. Confidence(A--> AB)>=Confidence(AC-->C) 

d. Confidence(AB--> C) >= Confidence(AC--> B)

66. Nhiều lựa chọn

Giả sử ta có các tập mục thường xuyên {A,B}, {A,C}, {B,D} chứa 2-item. Sử dụng thuật toán Apriori để ghép các tập mục có 2-item thành các tập mục có 3-item , các ứng viên sinh ra có 3-item là:

a. {A, B, C}, {A, B, D} 

b. {A, B, C}, {A, B, D}, {A, B, C, D}

c. {A, B, C}, {B, C, D} 

d. {A, B, C}, {C, B, D}

67. Nhiều lựa chọn

Trong thuật toán Apriori, tập mục chứa k-item được tạo ra bằng cách nào trong các cách sau: 

a. Tạo ra từ tập chứa k-1 item bằng cách ghép 2 tập k-1 item với nhau với điều kiện là 2 tập k-1 item này phải có chung nhau k-2 item 

b. Tổ hợp k item từ các item có trong cơ sở dữ liệu giao dịch. 

c. Lấy ngẫu nhiên k item sau đó ghép lại với nhau. 

d. Sinh mọi tập con có k item từ các item có trong cơ sở dữ liệu giao dịch

68. Nhiều lựa chọn

Cho tập L3={abc, abd, ade, ace} là các tập mục thường xuyên chứa 3-item. Để tạo các ứng viên chứa 4-item abcd, ta cần ghép các tập chứa 3-item nào với nhau?

a. abc và abd 

b. abc và ade

c. abc và ace 

d. abd và ade

69. Nhiều lựa chọn

Khẳng định nào sau đây là sai: 

a. FP-Tree là cây nhị phân 

b. FP-Tree là cây tổng quát 

c. Khi thêm 1 giao dịch vào FP-Tree đều phải thêm bắt đầu từ gốc.

d. Bảng đầu mục – Header Table dùng để lưu 3 thông tin: Tên item, Số lượng item đó xuất hiện trong CSDL giao dịch và Con trỏ dùng để trỏ đến nút cùng tên được sinh ra đầu tiên

70. Nhiều lựa chọn

Có thể sử dụng phân lớp dựa trên mạng Nơron nhân tạo. Vậy mạng Nơron nhân tạo là gì? 

a. Là mô hình toán học mô phỏng theo mạng Nơron sinh học để giải quyết các bài toán 

b. Là mạng máy tính có tốc độ truyền thông cao 

c. Là mạng Nơron do con người tạo ra 

d. Là một phương pháp để phân loại Gen của các loài sinh vật

71. Nhiều lựa chọn

Độ phân biệt (độ lộn xộn) của kết luận C với thuộc tính A được tính theo công thức: 

a. Gain(C,A)=Entropy(C)-Entropy(A) 

b. Gain(C,A)=Entropy(C)+Entropy(A)

c. Gain(C,A)=Entropy(A)-Entropy(C) 

d. Gain(C,A)=Entropy(C)*Entropy(A)

72. Nhiều lựa chọn

Kết luận nào trong các kết luận sau là sai: 

a. Thuật toán Quilan chọn ngẫu nhiên 1 thuộc tính để làm gốc cây quyết định 

b. Độ phân biệt (độ lộn xộn) của một thuộc tính với kết luận C cao nhất thì Entropy của nó thấp nhất 

c. Thuật toán học khái niệm CLS chọn ngẫu nhiên 1 thuộc tính để làm gốc cây quyết định 

d. Entropy là một số biến thiên trong đoạn [0,1].

73. Nhiều lựa chọn

Kết luận C gồm 2 giá trị Yes và No. Entropy(C: 1 nói nên điều gì: 

a. Số kết luận ‘Yes’=Số kết luận ‘No’ 

b. Số kết luận ‘Yes’ =0 

c. Số kết luận ‘No’ =0 

d. Không kết luận được điều gì

74. Nhiều lựa chọn

Kết luận C gồm 2 giá trị Yes và No. Entropy(C: 0 nói nên điều gì:

a. Số kết luận ‘Yes’=0 hoặc Số kết luận ‘No’ 

b. Số kết luận ‘Yes’ = Số kết luận ‘No’ 

c. Số kết luận ‘No’ =1 và Số kết luận ‘Yes’ = 1 

d. Không kết luận được điều gì

75. Nhiều lựa chọn

Khi sử dụng thuật toán Quilan để xây dựng cây quyết định. Tại mỗi bước của thuật toán ta chọn thuộc tính nào trong số các thuộc tính còn lại để làm gốc phân nhánh? 

a. Thuộc tính có độ phân biệt cao nhất 

b. Thuộc tính có độ phân biệt thấp nhất 

c. Thuộc tính có Entropy cao nhất 

d. Chọn ngẫu nhiên

76. Nhiều lựa chọn

Khi sử dụng thuật toán CLS (Concept Learning System) để xây dựng cây quyết định. Tại mỗi bước của thuật toán ta chọn thuộc tính nào trong số các thuộc tính còn lại để làm gốc phân nhánh? 

a. Chọn ngẫu nhiên 

b. Thuộc tính có độ phân biệt thấp nhất 

c. Thuộc tính có Entropy cao nhất 

d. Thuộc tính có độ phân biệt cao nhất

77. Nhiều lựa chọn

Entropy là một đại lượng có miền giá trị là: 

a. [0 ; 1] 

b. (0 ; 1) 

c. Miền giá trị là tập số nguyên dương

d. Miền giá trị là tập số thực dương

78. Nhiều lựa chọn

Thuật toán Quilan là thuật toán dùng để: 

a. Xây dựng cây quyết định 

b. Tìm các luật 

c. Tìm độ phân biệt của các thuộc tính 

d. Giúp ta tìm ra 1 thuộc tính làm gốc cây quyết định

79. Nhiều lựa chọn

Độ đo ‘gần gũi’ là gì ? 

a. Đây là một độ đo chỉ ra mức độ tương tự hay không tương tự giữa hai vector đặc trưng 

b. Độ đo giữa 2 phần tử bất kỳ 

c. Khoảng cách giữa 2 phần tử trong không gian 

d. Độ đo sử dụng trong Data Mining để phân cụm dữ liệu

80. Nhiều lựa chọn

Độ đo ‘gần gũi’ gồm có: 

a. Độ đo tương tự và độ đo không tương tự 

b. Độ đo khoảng cách và độ đo tình cảm 

c. Độ đo Ơclit và độ đo phi Ơclit 

d. Độ đo tương tự và độ đo khoảng cách trong không gian 2 chiều

81. Nhiều lựa chọn

Độ đo khoảng cách trong không gian Ơclit là độ đo: 

a. Độ đo không tương tự 

b. Độ đo tương tự 

c. Độ đo giữa 2 đối tượng cùng loại 

d. Độ đo giữa 2 đối tượng khác loại

82. Nhiều lựa chọn

Cho 2 điểm trong mặt phẳng toạ độ Oxy, cho 2 điểm A(x1, y1), B(x2, y2). Khoảng cách Ơclit giữa 2 điểm này là: 

a. d=sqr(sqrt(x1-x2)+sqrt(y1-y2)) trong đó sqr là hàm bình phương, sqrt là hàm lấy căn. 

b. d=sqr(sqrt(x1+x2)+sqrt(y1+y2)) trong đó sqr là hàm bình phương, sqrt là hàm lấy căn. 

c. d=x1*x2+y1*y2 

d. Công thức khác

83. Nhiều lựa chọn

Cho hai điểm A(0,1), B(4, 4). Sử dụng độ đo khoảng cách Ơclit thì khoảng cách giữa 2 điểm là 

a. d(A,B)=5 

b. d(A,B)=3 

c. d(A,B)=4 

d. d(A,B)=1

84. Nhiều lựa chọn

Cho tập C={x1, x2,. ..xk} gồm k phần tử, mỗi phần tử là một vector trong không gian N chiều. Vector trung bình mC của tập C là một vector trong không gian N chiều được định nghĩa là: 

a. mC= (x1+x2+...+xk)/k 

b. mC= (x1+x2+...+xk) 

c. mC= (x1+x2+...+xk)/N 

d. mC= (x1+x2+...+xk)/k*N

85. Nhiều lựa chọn

Trong thuật toán phân cụm k-mean, sau khi chọn được k điểm làm tâm, phần tử x sẽ được gán vào cụm C sao cho: 

a. Khoảng cách từ x đến tâm cụm C là nhỏ nhất 

b. Khoảng cách từ x đến tâm cụm C là lớn nhất 

c. Khoảng cách từ x đến tâm cụm C bằng 0 

d. Khoảng cách từ x đến tâm cụm C bằng k

86. Nhiều lựa chọn

Trong thuật toán k-mean, sau khi gán các đối tượng vào k cụm cần phải: 

a. Tính lại tâm của các cụm 

b. Tính khoảng cách giữa các phần tử trong cụm 

c. Tìm một số phần tử đại diện của cụm 

d. Trộn các cụm lại với nhau để số cụm sinh ra là ít nhất

87. Nhiều lựa chọn

Cho các điểm A(1, 1), B(2, 1), C(4, 3), D(5, 4). Sử dụng thuật toán phân cụm k-mean để chia 4 điểm vào 2 cụm. Kết quả phân cụm là: 

a. C1={A, B} ; C2={C, D} 

b. C1={A, C} ; C2={B, D} 

c. C1={A, B, C} ; C2={D} 

d. C1={A, B, D} ; C2={C}

88. Nhiều lựa chọn

Cho các điểm A(1, 1), B(2, 1), C(4, 3), D(5, 4), E( 1, 0). Sử dụng thuật toán phân cụm k-mean để chia 5 điểm vào 2 cụm. Kết quả phân cụm là: 

a. C1={A, B, E} ; C2={C, D}

b. C1={A, C, E} ; C2={B, D} 

c. C1={A, B, C} ; C2={D, E} 

d. C1={A, B, D} ; C2={C, E}

89. Nhiều lựa chọn

Cho cụm C gồm các điểm A(1, 1), B(2, 1), C(3,1). Giả sử đại diện của cụm là một điểm (vector trung bình). Vetor trung bình của cụm là: 

a. mC = (2 ; 1) 

b. mC = (2 ; 0) 

c. mC = (2.5 ;1.5) 

d. mC=(0 ; 0)

90. Nhiều lựa chọn

Cho cụm C gồm các điểm A(1, 1), B(2, 4), C(6,1). Giả sử tâm của cụm là vector trung bình. Tâm của cụm là: 

a. mC = (3 ; 2) 

b. mC = (2 ; 3) 

c. mC = (2.5 ;1.5)

d. mC=(6 ; 1)

91. Nhiều lựa chọn

k-Mean phù hợp với các cụm có hình dạng nào sau đây: 

a. Dạng hình cầu 

b. Cụm dài và mảnh 

c. Các cụm có các điểm phân bố ngẫu nhiên

d. Hình dạng bất kỳ

92. Nhiều lựa chọn

Phát biểu nào sau đây không là nhược điểm của thuật toán K-mean 

a. Thuật toán khó cài đặt 

b. Không đảm bảo đạt được tối ưu toàn cục 

c. Khó phát hiện các loại cụm có hình dạng phức tạp và nhất là các dạng cụm không lồi 

d. Cần phải xác định trước số cụm k

93. Nhiều lựa chọn

Thuật toán phân cụm k-mean dừng khi: 

a. Không thể gán (hoặc gán lại) từng điểm vào cụm khác 

b. Số cụm sinh ra là k 

c. Tùy theo yêu cầu của người dùng 

d. Khi tất cả các phần tử đã được gán vào k cụm

94. Nhiều lựa chọn

Hãy chọn phát biểu sai trong các phát biểu sau đây về thuật toán phân cụm k mean: 

a. Phụ thuộc vào thứ tự các phần tử đưa vào phân cụm 

b. Cần phải xác định trước số cụm cần sinh ra 

c. k-mean phù hợp với các cụm có dạng hình cầu 

d. Vector được chọn làm tâm của mỗi cụm là vector trung bình của cụm đó

95. Nhiều lựa chọn

Kết quả của quá trình phân cụm phân cấp là: 

a. Một sơ đồ ngưỡng tương tự (hoặc không tương tự). 

b. Một danh sách các cụm 

c. Một cây nhị phân biểu diễn quá trình gom cụm

d. k cụm được sinh ra, với k cho trước

96. Nhiều lựa chọn

Chọn phát biểu sai trong các phát biểu sau: 

a. Thuật toán phân cụm phân cấp phụ thuộc vào trình tự đưa các phần tử vào phân cụm 

b. Cắt sơ đồ ngưỡng tương tự hoặc không tương tự tại một ngưỡng nào đó, ta sẽ được danh sách các cụm

c. Single Linkage, Complete Linkage là 2 trường hợp đặc biệt của thuật toán phân cấp 

d. Kết quả phân cụm phụ thuộc vào việc chọn đặc trưng, chọn độ đo gần gũi, chọn đại diện của cụm và chọn thuật toán phân cụm

97. Nhiều lựa chọn

Tiến trình Khai phá tri thức – KDD gồm các bước như sau:

a. Lựa chọn dữ liệu, tiền xử lí dữ liệu, chuyển dạng, khai phá dữ liệu, trình diễn dữ liệu 

b. Lựa chọn dữ liệu, chuyển dạng, khai phá dữ liệu, tiền xử lí dữ liệu, trình diễn dữ liệu 

c. Lựa chọn dữ liệu, khai phá dữ liệu, trình diễn dữ liệu tiền, xử lí dữ liệu 

d. Lựa chọn dữ liệu, khai phá dữ liệu, trình diễn dữ liệu

98. Nhiều lựa chọn

Sự bùng nổ của dữ liệu trong những năm gần đây có nhiều nguyên nhân, trong đó có những nguyên nhân sau (chọn đáp án đúng nhất): 

a. Công nghệ phần cứng phát triển mạnh, năng lực số hóa của con người ngày càng cao, bùng nổ công nghệ mạng, tác nhân tạo mới dữ liệu ngày càng nhiều... 

b. Khoa khọc kỹ thuật ngày càng tiến bộ, nguồn nhân lực ngành Công nghệ thông tin ngày càng đông, nhu cầu khai thác thông tin ngày càng nhiều...

c. Thông tin thu thập từ việc nghiên cứu các hành tinh, thông tin chống khủng bố, thông tin quảng cáo ngày càng nhiều... 

d. Dữ liệu quảng cáo ngày càng nhiều, bùng nổ các mạng xã hội,...

99. Nhiều lựa chọn

Data Integeation là: 

a. Cách kết hợp dữ liệu tìm được từ các nguồn dữ liệu khác nhau

b. Tích hợp thông tin khách hàng phục vụ quá trình Data Mining 

c. Phân chia dữ liệu phục vụ quá trình Data Mining 

d. Là bước thực hiện sau khi đã tìm kiếm tri thức mới từ dữ liệu

100. Nhiều lựa chọn

Phát biểu nào sai về ‘Tiền xử lí dữ liệu’: 

a. Dữ liệu sau khi Tiền xử lí sẽ thành tri thức mới 

b. Không có dữ liệu tốt, không thể có kết quả khai phá tốt 

c. Phân lớn công việc xây dựng một kho dữ liệu là trích chọn, làm sạch và chuyển đổi dữ liệu —Bill Inmon 

d. Dữ liệu có chất lượng cao nếu như phù hợp với mục đích sử dụng trong điều hành, ra quyết định, và lập kế hoạch.

101. Nhiều lựa chọn

Các bài toán chính trong ‘Tiền xử lí dữ liệu’ là: 

a. Làm sạch dữ liệu, Tích hợp dữ liệu, Chuyển dạng dữ liệu, Rút gọn dữ liệu, Rời rạc dữ liệu 

b. Làm sạch dữ liệu, Tích hợp dữ liệu, Chuyển dạng dữ liệu, Rời rạc dữ liệu 

c. Phân lớp, Tìm luật kết hợp, Gom cụm

d. Lựa chọn đặc trưng, Tìm thuật toán để Khai phá dữ liệu

102. Nhiều lựa chọn

Xếp thùng - Binning - là phương pháp rời rạc hóa đơn giản nhất. Phương pháp này gồm có:

a. Phân hoạch cân bằng bề rộng Equal-width và Phân hoạch cân bằng theo chiều sâu Equal-depth 

b. Xếp thùng theo chiều sâu và Xếp thùng làm trơn theo giá trị nhỏ nhất 

c. Làm trơn theo giá trị lớn nhất và làm trơn theo giá trị nhỏ nhất 

d. Làm trơn theo biên phải và làm trơn theo biên trái

103. Nhiều lựa chọn

Phương pháp Xếp thùng - Binning là phương pháp: 

a. Sắp xếp dữ liệu tăng dần và chia đều vào các thùng, sau đó sử dụng phương pháp làm trơn theo trung bình, theo biên, theo trung tuyến.

b. Chia đều dữ liệu vào các thùng, sau đó sử dụng phương pháp làm trơn theo trung bình, theo biên, theo trung tuyến. 

c. Sắp xếp dữ liệu tăng dần và chia vào các thùng, mỗi thùng có số phần tử tùy ý, sau đó sử dụng phương pháp làm trơn theo trung bình, theo biên, theo trung tuyến. 

d. Sắp xếp dữ liệu giảm dần và chia đều vào N thùng, loại bỏ các thùng không cần thiết

104. Nhiều lựa chọn

Cho tập dữ liệu được xếp theo giá: 4, 8, 9, 15, 21, 21, 24, 25, 26, 28, 29, 34. Chia tập dữ liệu trên thành 3 thùng. Kết quả chia thùng theo chiều sâu là: 

a. Bin 1: 4, 8, 9, 15; Bin 2: 21, 21, 24, 25; Bin 3: 26, 28, 29, 34 

b. Bin 1: 4, 4, 4, 4; Bin 2: 21, 21, 21, 21; Bin 3: 26, 26, 26, 26

c. Bin 1: 4, 4, 4, 15; Bin 2: 21, 21, 25, 25; Bin 3: 26, 26, 26, 34 

d. Bin 1: 15, 15, 15, 15; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29

105. Nhiều lựa chọn

Cho tập dữ liệu được xếp theo giá: 4, 8, 9, 15, 21, 21, 24, 25, 26, 28, 29, 34. Chia tập dữ liệu trên thành 3 thùng theo chiều sâu. Kết quả chia thùng làm trơn theo trung bình là: 

a. Bin 1: 9, 9, 9, 9; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29 

b. Bin 1: 4, 4, 4, 4; Bin 2: 21, 21, 21, 21; Bin 3: 26, 26, 26, 26 

c. Bin 1: 4, 4, 4, 15; Bin 2: 21, 21, 25, 25; Bin 3: 26, 26, 26, 34 

d. Bin 1: 15, 15, 15, 15; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29

106. Nhiều lựa chọn

Cho tập dữ liệu được xếp theo giá: 4, 8, 9, 15, 21, 21, 24, 25, 26, 28, 29, 34. Chia thành 3 thùng theo chiều sâu. Kết quả phương pháp chia thùng làm trơn theo biên là:

a. Bin 1: 4, 4, 4, 15; Bin 2: 21, 21, 25, 25; Bin 3: 26, 26, 26, 34 

b. Bin 1: 4, 4, 4, 4; Bin 2: 21, 21, 21, 21; Bin 3: 26, 26, 26, 26 

c. Bin 1: 9, 9, 9, 9; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29 

d. Bin 1: 15, 15, 15, 15; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29

107. Nhiều lựa chọn

Phương pháp xếp thùng phân hoạch cân bằng theo bề rộng là:

a. Chi miền giá trị thành N đoạn có độ dài như nhau  nhau sẽ được xếp vào cùng 1 thùng

b. Chia miền xác định thành N đoạn ‘’đều nhau về số lượng’’ các đoạn có xấp xỉ số ví dụ mẫu.

c. Lựa chọn số phần tử ngẫu nhiên và xếp và N thùng 

d. Các phần tử có giá trị như

108. Nhiều lựa chọn

Trong quá trình Tiền xử lí dữ liệu người ta thường dùng một số phương pháp chuẩn hóa dữ liệu sau: 

a. Min-Max, z-Score, Tỷ lệ thập phân – decimal scale 

b. 2NF, 3NF, BCNF 

c. Đưa về hệ đếm thập phân, Hệ nhị phân, hệ Hecxa 

d. Chuẩn hóa về dữ liệu văn bản, hình ảnh, âm thanh

109. Nhiều lựa chọn

Một số chiến lược rút gọn dữ liệu là: 

a. Tập hợp khối dữ liệu, Giảm đa chiều – loại bỏ thuộc tính không quan trọng, Nén dữ liệu, Giảm tính số hóa – dữ liệu thành mô hình, Rời rạc hóa và sinh cây khái niệm 

b. Tìm kiếm thêm thông tin có ích, xây dựng cây quyết định, phân nhóm dữ liệu 

c. Phân lớp dữ liệu, tìm đặc trưng của dữ liệu, loại bỏ nhiễu 

d. Loại bỏ phần tử ngoại lai, tìm các dữ liệu quan trọng, đưa về mô hình toán học

110. Nhiều lựa chọn

Cho miền giá trị từ 12000 đến 98000, Sử dụng phương pháp Min-Max để chuẩn hóa về đoạn [0.0 ; 1.0]. Giá trị 73000 được chuẩn hóa là: 

a. 0.716 

b. 0.800 

c. 0.500 

d. Giá trị khác

111. Nhiều lựa chọn

Cho miền giá trị từ 120 đến 980, Sử dụng phương pháp Min-Max để chuẩn hóa về đoạn [0.0 ; 10]. Giá trị 550 được chuẩn hóa là: 

a. 5.0 

b. 8.0 

c. 9.0 

d. Giá trị khác

112. Nhiều lựa chọn

Cho miền giá trị của A từ -986 đến 917, Sử dụng phương pháp chuẩn hóa Tỷ lệ Thập phân– decimal scale, miền giá trị của A sau khi chuẩn hóa là: 

a. - 0.986 đến 0.917 

b. 0.0 đến 1.0 

c. 0.0 đến 9.17 

d. Giá trị khác

113. Nhiều lựa chọn

Cho giá trị của A là 1500, Sử dụng phương pháp chuẩn hóa Tỷ lệ Thập phân– decimal scale, giá trị của A sau khi chuẩn hóa là:

a. 0.15 

b. 1.5 

c. 0.015 

d. Giá trị khác

114. Nhiều lựa chọn

Phát biểu nào đúng về Phương pháp phân tích thành phần chính (Principal Component Analysis-PCA): 

a. Chỉ áp dụng cho dữ liệu số và dùng khi số chiều vector lớn 

b. Chỉ áp dụng cho dữ liệu văn bản và dùng khi số chiều vector lớn 

c. áp dụng cho mọi loại dữ liệu 

d. Tìm đặc trưng quan trọng của tập dữ liệu

115. Nhiều lựa chọn

Phát biểu nào đúng về Phương pháp phân tích thành phần chính (Principal Component Analysis-PCA: 

a. Cho N vector dữ liệu k-chiều, tìm c (<= k) vector trực giao tốt nhất để trình diễn dữ liệu. Tập dữ liệu gốc được rút gọn thành N vector dữ liệu c chiều: c thành phần chính (chiều được rút gọn). Mỗi vector dữ liệu là tổ hợp tuyến tính của các vector thành phần chính. 

b. Cho N vector dữ liệu k-chiều, tìm c (<= k) vector đại diện để trình diễn dữ liệu. Tập dữ liệu gốc được rút gọn thành N vector dữ liệu c chiều: c thành phần chính (chiều được rút gọn). Mỗi vector dữ liệu là tổ hợp tuyến tính của các vector thành phần chính. 

c. Cho N vector dữ liệu k-chiều, tìm c (<= k) vector trực giao tốt nhất để trình diễn dữ liệu. Tập dữ liệu gốc được rút gọn thành N vector dữ liệu k chiều: k thành phần chính (chiều được rút gọn). Mỗi vector dữ liệu là tổ hợp tuyến tính của các vector thành phần chính. 

d. Cho N vector dữ liệu k-chiều, tìm c (<= k) vector để trình diễn dữ liệu. Tập dữ liệu gốc được rút gọn thành 1 vector dữ liệu c chiều: c thành phần chính (chiều được rút gọn). Mỗi vector dữ liệu là tổ hợp tuyến tính của các vector thành phần chính.

116. Nhiều lựa chọn

Rời rạc hóa là: 

a. Rút gọn số lượng giá trị của thuộc tính liên tục bằng cách chia miền giá trị của thuộc tính thành các đoạn. Nhãn đoạn sau đó được dùng để thay thế giá trị thực. 

b. Đưa dữ liệu về dạng số nhị phân

c. Biểu diễn dữ liệu thành dạng dữ liệu không liên tục 

d. Chuyển đổi dữ liệu sang dạng sóng điện từ

117. Nhiều lựa chọn

Cho L là tập mục thường xuyên, S là tập con của L thì với mọi tập con S’ của S ta có: 

a. Conference(S’-->L-S) <= Conference(S-->L-S)

b. Conference(S’-->L-S: Conference(S-->L-S)

c. Conference(S’-->L-S) > Conference(S-->L-S) 

d. Không so sánh được Conference(S’-->L-S) và Conference(S-->L-S)

118. Nhiều lựa chọn

Cho X, Y là các tập mục, X là tập con của Y thì ta có: 

a. Support(X)>=Support(Y) 

b. Support(X)<=Support(Y) 

c. Support(X) =Support(Y) 

d. Không so sánh được Support(X) và Support(Y)

119. Nhiều lựa chọn

Cho X={A,B}, Y={A, B, C} là các tập mục, ta có: 

a. Support(X)>=Support(Y) 

b. Support(X)<=Support(Y)

c. Support(X) =Support(Y) 

d. Không so sánh được Support(X) và Support(Y)

120. Nhiều lựa chọn

Cho X không là tập mục thường xuyên thì với mọi tập Y chứa X ta có kết luận: 

a. Y không là tập mục thường xuyên 

b. Y là tập mục thường xuyên 

c. X là tập mục thường xuyên 

d. Không thể kết luận được điều gì

121. Nhiều lựa chọn

Cho X ={A,B,C} là tập mục thường xuyên, Y={A, B} ta có kết luận:

a. Y là tập mục thường xuyên 

b. Y không là tập mục thường xuyên

c. C là tập mục thường xuyên 

d. X không là tập mục thường xuyên

122. Nhiều lựa chọn

Kết luận nào sau đây là sai: 

a. Tập con của một tập mục thường xuyên KHÔNG là tập mục thường xuyên 

b. Tập con của một tập mục thường xuyên là tập mục thường xuyên 

c. Nếu luật kết hợp A-->BC thỏa mãn điều kiện của bài toán thì AB-->C cũng là luật kết hợp thỏa mãn điều kiện của bài toán 

d. Cho tập mục X={X1, X2, …, Xn}. Nếu tất cả các mục Xi trong X đều không là tập mục thường xuyên thì mọi tập con Y của X cũng không là tập mục thường xuyên.

123. Nhiều lựa chọn

Cho X ={A, B} không là tập mục thường xuyên, Y = {A, B, C} ta có kết luận:

a. Y không là tập mục thường xuyên 

b. Y là tập mục thường xuyên 

c. X là tập mục thường xuyên 

d. C không là tập mục thường xuyên

124. Nhiều lựa chọn

Cho X ={X1, X2, …, Xn } là tập các mục. Y là tập con của X. Nếu tất cả các mục Xi đều không là tập mục không thường xuyên thì ta có kết luận: 

a. Y không là tập mục thường xuyên 

b. Y là tập mục thường xuyên 

c. X là tập mục thường xuyên

d. Tập X – Y là tập mục thường xuyên

125. Nhiều lựa chọn

Ý tưởng chính của thuật toán Apriori là: 

a. Tạo ra các tập phổ biến (thường xuyên) có 1 item, rồi tiếp đến là 2 items, 3 items... cho đến khi chúng ta tạo ra tập phổ biến của mọi kích thước. Mỗi tập item được tạo ra phải được tính toán độ hỗ trợ và độ tin cậy. Tập k-item được tạo ra từ tập k-1 items. Tạo danh sách các item dự kiến của tập k-items bằng cách hợp từng đôi một tập k-1 items có trong danh sách. 

b. Tạo ra các tập phổ biến (thường xuyên) có 1 item, rồi tiếp đến là 2 items, 3 items... cho đến khi chúng ta tạo ra tập phổ biến của mọi kích thước. Tập k item được tạo ra từ tập k-1 items. Tạo danh sách các item dự kiến của tập k-items bằng cách hợp từng đôi một tập k-1 items có trong danh sách. Loại bỏ các tập item không thỏa độ hỗ trợ và độ tin cậy 

c. Tạo bảng chứa các item phổ biến, loại bỏ các item không phổ biến. Giả sử có k item là ứng viên. Tính các tập mục mà mỗi mục có số lượng phần tử là tổ hợp chập 1, 2, 3, … k của k item. Loại bỏ các item không thỏa mãn độ hỗ trợ và độ tin cậy. 

d. Lần lượt tạo ra danh sách các item dự kiến của tập k-items bằng cách hợp từng đôi một tập k-1 items có trong danh sách. Loại bỏ các tập item không thỏa độ hỗ trợ và độ tin cậy.

126. Nhiều lựa chọn

Cho tập mục thường xuyên X có độ dài k (k mục), từ tập X có thể sinh ra bao nhiêu luật kết hợp: 

a. 2^k-2, không tính luật X và X 

b. 2^k không tính luật X và X 

c. k luật

d. Vô số luật kết hợp

127. Nhiều lựa chọn

Cho tập mục thường xuyên X={A, B, C}, từ tập X có thể sinh ra bao nhiêu luật kết hợp: 

a. 6 luật, không tính luật X và X 

b. 8 luật, không tính luật X và X 

c. 3 luật 

d. 1 luật

128. Nhiều lựa chọn

Cho tập mục thường xuyên X={A, B, C, D}, từ tập X có thể sinh ra bao nhiêu luật kết hợp: 

a. 14 luật, không tính luật X và X 

b. 16 luật, không tính luật X

c. 3 luật 

d. 1 luật

129. Nhiều lựa chọn

Cho 3 điểm x, y, z. Độ đo khoảng cách d phải thỏa mãn các điều kiện nào:

a. d(x,y)>0 ; d(x,y)=d(y,x) ; d(x,y) =0 ; d(x,y)<=d(x,z)+d(z,y) 

b. d(x,y)>=0 ; d(x,y)<=d(x,z)+d(z,y) 

c. d(x,y)>=0 ; d(x,y)=d(y,x) ; d(x,x) =0 ; d(x,y)<=d(x,z)+d(z,y) 

d. d(x,y)>=0 ; d(x,x) =0 ; d(x,y)<=d(x,z)+d(z,y)

130. Nhiều lựa chọn

Khi chọn đại diện cho cụm, có thể chọn các đại diện sau:

a. Đại diện điểm, đại diện siêu cầu 

b. Đại diện siêu phẳng, đại diện điểm 

c. Đại diện điểm, đại diện siêu phẳng và đại diện siêu cầu 

d. Đại diện siêu cầu, đại siêu phẳng

131. Nhiều lựa chọn

Có N phần tử cần chia thành m cụm, mỗi cụm có ít nhất 1 phần tử. Gọi S(N,m) là số cách chia N phần tử vào m cụm. Công thức nào sau đây cho ta tổng số cách chia cụm: 

a. S(N, m) = m.S(N, m) + S(N - 1, m - 1) 

b. S(N, m) = N.S(N - 1, m) + S(N - 1, m - 1) 

c. S(N, m) = m.S(N - 1, m) + S(N - 1, m - 1) 

d. S(N, m) = S(N - 1, m) + m.S(N - 1, m - 1)

132. Nhiều lựa chọn

Có N phần tử cần chia thành 2 cụm, mỗi cụm có ít nhất 1 phần tử. Công thức nào sau đây cho ta tổng số cách chia cụm: 

a. S(N,2) = 2^N - 1

b. S(N,2) = 2^(N-1)

c. S(N,2) = 2^(N-1) - 1 

d. S(N,2) = 2^N

133. Nhiều lựa chọn

Có N phần tử cần chia thành 2 cụm, mỗi cụm có ít nhất 1 phần tử. Công thức nào sau đây cho ta tổng số cách chia cụm: 

a. S(N,2) = 2^N - 1 

b. S(N,2) = 2^(N-1) 

c. S(N,2) = 2^(N-1) - 1 

d. S(N,2) = 2^N

134. Nhiều lựa chọn

Có 4 phần tử cần chia thành 2 cụm, mỗi cụm có ít nhất 1 phần tử. Hỏi có bao nhiêu cách chia cụm: 

a. 16 cách 

b. 15 cách

c. 7 cách 

d. 1 cách

135. Nhiều lựa chọn

Có 5 phần tử cần chia thành 2 cụm, mỗi cụm có ít nhất 1 phần tử. Hỏi có bao nhiêu cách chia cụm:

a. 7 cách 

b. 32 cách 

c. 15 cách 

d. 1 cách

136. Nhiều lựa chọn

Hãy chọn định nghĩa đúng về Ma trận không tương tự:

a. Cho tập X gồm N phần tử {x1, x2, …, xN}, mỗi phần tử là một vector. Ma trận không tương tự P(X) là ma trận cấp N N mà phần tử nằm ở vị trí (i, j) có giá trị là i*j 

b. Cho tập X gồm N phần tử {x1, x2, …, xN}, mỗi phần tử là một vector. Ma trận không tương tự P(X) là ma trận cấp N N mà phần tử nằm ở vị trí (i, j) bằng 0 

c. Cho tập X gồm N phần tử {x1, x2, …, xN}, mỗi phần tử là một vector. Ma trận không tương tự P(X) là ma trận cấp N N mà phần tử nằm ở vị trí (i, j) bằng độ không tương tự d(xi,xj) giữa hai vector xi và xj. 

d. Cho tập X gồm N phần tử {x1, x2, …, xN}, mỗi phần tử là một vector. Ma trận không tương tự P(X) là ma trận cấp N N mà phần tử nằm trên đường chéo chính bằng 0, các phần tử khác có giá trị bất kỳ

137. Nhiều lựa chọn

Phát biểu nào sau đây không đúng về Ma trận không tương tự:

a. Là ma trận đối xứng qua đường chéo chính 

b. Là ma trận cho biết độ không tương tự giữa 2 phần tử bất kỳ 

c. Các phần tử nằm trên đường chéo chính bằng có giá trị 0 

d. Là ma trận mà các phần tử trên đường chéo chính bằng 1

138. Nhiều lựa chọn

Sơ đồ gần gũi là :

a. Sơ đồ gần gũi là một sơ đồ xét mức độ gần gũi ở đó hai cụm được trộn với nhau tạo thành sơ đồ hình cây 

b. Sơ đồ gần gũi là một sơ đồ xét mức độ gần gũi biểu diễn mối quan hệ giữa các phần tử trong quá trình phân cụm 

c. Sơ đồ gần gũi là sơ đồ không tương tự

d. Sơ đồ gần gũi là một sơ đồ xét mức độ gần gũi ở đó hai cụm được trộn với nhau ở lần đầu tiên. Khi sử dụng độ đo không tương tự (tương tự), sơ đồ gần gũi được gọi là một sơ đồ không tương tự (tương tự).

139. Nhiều lựa chọn

Độ phức tạp của thuật toán k-Mean là: 

a. O(n+k+t) trong đó n là số phần tử cần phân cụm, k là số cụm, t là số lần lặp 

b. O(n^2) trong đó n là số phần tử cần phân cụm

c. O(n) trong đó n là số phần tử cần phân cụm 

d. O(n*k*t) trong đó n là số phần tử cần phân cụm, k là số cụm, t là số lần lặp

140. Nhiều lựa chọn

Phát biểu nào đúng về thuật toán liên kết đơn: 

a. Chọn 2 cụm gần nhau nhất Ci, Cj để trộn với nhau thành cụm Cp. Khoảng cách giữa cụm mới Cp và các cụm còn lại Cq là d(Cp,Cq)=Max{d(Ci,Cq); d(Cj,Cq)} 

b. Chọn 2 cụm xa nhau nhất Ci, Cj để trộn với nhau thành cụm Cp. Khoảng cách giữa cụm mới Cp và các cụm còn lại Cq là d(Cp,Cq)=Min{d(Ci,Cq); d(Cj,Cq)} 

c. Chọn 2 cụm xa nhau nhất Ci, Cj để trộn với nhau thành cụm Cp. Khoảng cách giữa 

d. Chọn 2 cụm gần nhau nhất Ci, Cj để trộn với nhau thành cụm Cp. Khoảng cách giữa cụm mới Cp và các cụm còn lại Cq là d(Cp,Cq)=Min{d(Ci,Cq); d(Cj,Cq)} cụm mới Cp và các cụm còn lại Cq là d(Cp,Cq)=Max{d(Ci,Cq); d(Cj,Cq)}

141. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Có bao nhiêu thuộc tính để phân lớp ?

Cho tập ví dụ học như bảng. Có bao nhiêu thuộc tính để phân lớp ?  a. 4 thuộc tính b. 3 thuộc tính c. 5 thuộc (ảnh 1)

a. 4 thuộc tính 

b. 3 thuộc tính

c. 5 thuộc tính 

d. 6 thuộc tính

142. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Thuộc tính kết luận Play Ball có bao nhiêu giá trị:Cho tập ví dụ học như bảng. Thuộc tính kết luận Play Ball có bao nhiêu giá trị:  a. 2 giá trị b. 3 giá trị  (ảnh 1)

a. 2 giá trị 

b. 3 giá trị 

c. 5 giá trị 

d. 1 giátrị

143. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Các thuộc tính dùng để phân lớp là:Cho tập ví dụ học như bảng. Các thuộc tính dùng để phân lớp là:   a. Outlook, Temperature, Humidity, Wind  (ảnh 1)

a. Outlook, Temperature, Humidity, Wind 

b. Outlook, Temperature, Humidity, Wind, Play Ball 

c. Day, Outlook, Temperature, Humidity, Wind 

d. Day, Outlook, Temperature, Humidity, Wind, Play Ball

144. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA, cần chia bảng ví dụ học này thành mấy bảng con:Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA, cần chia bảng ví dụ học này thành mấy bảng con: (ảnh 1) 

a. 2 bảng 

b. 3 bảng 

c. không cần chia 

d. Tùy theo thuộc tính được chọn

145. Nhiều lựa chọn

Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Khoảng cách giữa 2 phần tử x1 và x2 bằng bao nhiêu:  Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Khoảng cách giữa 2 phần  (ảnh 1)

a. bằng 1 

b. bằng 2 

c. bằng 0 

d. bằng 9

146. Nhiều lựa chọn

Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Khoảng cách giữa 2 phần tử x1 và x5 bằng bao nhiêu: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Khoảng cách giữa 2 phần tử x1  (ảnh 1)

a. bằng 5  

b. bằng 2 

c. bằng 0 

d. bằng 9

147. Nhiều lựa chọn

Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Sử dụng thuật toán liên kết đơn (Single Linkage), bước đầu tiên 2 phần tử nào được chọn để gom thành 1 cụm: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.  Sử dụng thuật toán liên kết đơn (ảnh 1)

a. x1 và x2 

b. x1 và x3 

c. x2 và x3 

d. x3 và x5

148. Nhiều lựa chọn

Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự. Sử dụng thuật toán liên kết đầy đủ (Complete Linkage), bước đầu tiên 2 phần tử nào được chọn để gom thành 1 cụm:  Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự.  Sử dụng thuật toán liên kết đầy đủ (ảnh 1)

a. x1 và x2

b. x1 và x3 

c. x2 và x3 

d. x3 và x5

149. Nhiều lựa chọn

Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 2.5 hỏi có mấy cụm được sinh ra: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 2.5 hỏi có mấy cụm được sinh ra: (ảnh 1)

a. 3 cụm

b. 2 cụm

c. 1 cụm

d. 4 cụm

150. Nhiều lựa chọn

Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 5 hỏi có mấy cụm được sinh ra:  Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 5 hỏi có mấy cụm được sinh ra (ảnh 1)

a. 1 cụm 

b. 2 cụm 

c. 3 cụm

d. 4 cụm

151. Nhiều lựa chọn

Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 3.5 hỏi có mấy cụm được sinh ra: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 3.5 hỏi có mấy cụm được sinh ra: (ảnh 1)

a. 2 cụm

b. 3 cụm

c. 1 cụm

d. 4 cụm

152. Nhiều lựa chọn

Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 1.5 hỏi có mấy cụm được sinh ra:  Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 1.5 hỏi có mấy cụm được sinh  (ảnh 1)

a. 4 cụm 

b. 2 cụm 

c. 1 cụm 

d. 5 cụm

153. Nhiều lựa chọn

Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 0.5 hỏi có mấy cụm được sinh ra: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 0.5 hỏi có mấy cụm được sinh ra: (ảnh 1)

a. 5 cụm

b. 2 cụm

c. 1 cụm

d. 4 cụm

154. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu Min_Confidence = 100%. Các tập mục thường xuyên có 1 mục thỏa mãn Min_Supp là:  Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu  (ảnh 1)

a. F:4, C:4, A:3, C:3, M:3, P:3 

b. C:4, A:3, C:3, M:3, P:3 

c. F:4, C:4 

d. A:3, C:3, M:3, P:3

155. Nhiều lựa chọn

Cho CDSL giao dịch như hình vẽ, Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu Min_Confidence = 100%. Cho CDSL giao dịch như hình vẽ, Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu  (ảnh 1) Tập mục thường xuyên có 4 mục thỏa mãn Min_Supp là:

a. FCAM:3

b. FCAM:2

c. FC:4

d. FCAM:4

156. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu Min_Confidence = 100%. Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu (ảnh 1) Cơ sở điều kiện của nút M là: 

a. {F:2, C:2, A:2} và { F:1, C:1, A:1, B:1} 

b. {F:2, C:2, A:2} 

c. F:1, C:1, A:1 

d. F: 3, C:3, A:3

157. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu Min_Confidence = 100%. Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu (ảnh 1) Cơ sở điều kiện của nút M là: 

a. {F:2, C:2, A:2, M:2} và { C:1, B:1} 

b. {F:2, C:2, A:2, M:2}

c. C:3 

d. F: 3, C:3, A:3

158. Nhiều lựa chọn

Cho CDSL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu Min_Confidence = 100%. Cho CDSL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu Min_C (ảnh 1) Cây điều kiện FP của P là:

a. {C:3}| p

b. {CF:3}|p

c. {C:4}|p

d. Cây điều kiện là rỗng

159. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu Min_Confidence = 100%. Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%) và độ tin cậy tối thiểu  (ảnh 1) Cây điều kiện FP của A là:

a. {F:3, C:3}| p 

b. {CF:3}|p 

c. {C:4}|p 

d. Cây điều kiện là rỗng

160. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%. Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%.  Luật kết hợp nào không (ảnh 1) Luật kết hợp nào không thỏa mãn điều kiện đề bài: 

a. BA-->E 

b. BC -->E 

c. C--> E 

d. B-->C

161. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%. Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%.  Luật kết hợp nào có độ (ảnh 1) Luật kết hợp nào có độ tin cậy = 100% 

a. B-->E 

b. A-->D 

c. C--> E 

d. AB-->C

162. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%. Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%.  Luật kết hợp nào có độ  (ảnh 1) Luật kết hợp nào có độ tin cậy = 75% 

a. B-->CE 

b. A-->D 

c. C--> E 

d. AB-->C

163. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào là tập mục thường xuyên với độ  (ảnh 1) Tập nào là tập mục thường xuyên với độ hỗ trợ là 50%: 

a. {A, C}

b. {A, E} 

c. {A, C, D} 

d. {B, C, D}

164. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào là tập mục thường xuyên có độ hỗ  (ảnh 1) Tập nào là tập mục thường xuyên có độ hỗ trợ cao nhất: 

a. {B, E} 

b. {A, E} 

c. {A, C, D}

d. {B, C, D}

165. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào là tập mục thường xuyên với độ hỗ  (ảnh 1) Tập nào là tập mục thường xuyên với độ hỗ trợ là 100%: 

a. Không có tập nào 

b. {A, E} 

c. {A, C, D} 

d. {B, E}

166. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào là tập mục thường xuyên với độ hỗ (ảnh 1) Tập nào là tập mục thường xuyên với độ hỗ trợ là 25%: 

a. {A, C, D} 

b. {A, C} 

c. {E, B} 

d. {B, C}

167. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%. Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence = 50%.  Các luật kết hợp nào  (ảnh 1) Các luật kết hợp nào có độ tin cậy = 100% 

a. {BC-->E, B-->E} 

b. A-->D 

c. AC--> E 

d. B-->C

168. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Sử dụng thuật toán Apriori, sau lần duyệt  (ảnh 1) Sử dụng thuật toán Apriori, sau lần duyệt thứ nhất, các danh sách L1 chứa các tập mục thường xuyên có 1-item được tạo ra là 

a. L1={{A}, {B}, {C}, {E}} 

b. L1={{A}, {B}, {C}, {D}} 

c. L1={{A}, {B}, {D}, {E}} 

d. L1={{A}, {D}, {C}}

169. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Tập nào là tập mục thường xuyên với độ hỗ  (ảnh 1) Tập nào là tập mục thường xuyên với độ hỗ trợ là = 70% 

a. Không có tập nào

b. {A, E} 

c. {A, C, D} 

d. {B, C, D}

170. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Sử dụng thuật toán Apriori để tìm các tập (ảnh 1) Sử dụng thuật toán Apriori để tìm các tập mục thường xuyên, số lần duyệt CSDL là:

a. 3 lần 

b. 2 lần 

c. 4 lần 

d. 1 lần

171. Nhiều lựa chọn

Cho FP-Tree như hình vẽ, mũi tên nét đứt biểu thị cho:

Cho FP-Tree như hình vẽ, mũi tên nét đứt biểu thị cho:   a. Con trỏ xuất phát từ bảng đầu mục, trỏ vào nút (ảnh 1)

a. Con trỏ xuất phát từ bảng đầu mục, trỏ vào nút sinh ra đầu tiên có cùng tên. Nút sinh ra sau có con trỏ từ nút cùng tên sinh ra ngay trước đó trỏ vào 

b. Đường đi trên cây 

c. Nút sinh ra sau trỏ vào nút cùng tên sinh ra trước 

d. Hướng để duyệt cây

172. Nhiều lựa chọn

Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút P là:Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút P là:  a. {f:2, c:2, a:2, m:2} và {c:1, b:1} b. {f:3, c:3, a:3, m:2}  (ảnh 1)

a. {f:2, c:2, a:2, m:2} và {c:1, b:1} 

b. {f:3, c:3, a:3, m:2} 

c. {f:4, c:3, a:3, m:2}

d. {f:2, c:2, a:2, m:2, p:2} và {c:1, b:1, p:1}

173. Nhiều lựa chọn

Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút M là: Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút M là:  a. {f:2, c:2, a:2}, {f:1, c:1, a:1, b:1}   b. {f:4, c: (ảnh 1)

a. {f:2, c:2, a:2}, {f:1, c:1, a:1, b:1} 

b. {f:4, c:4, a:3}, {f:4, c:3, a:3, b:1} 

c. {f:2, c:2, a:2, m:2}, {f:1, c:1, a:1, b:1, m:1}

d. {f:2, c:2, a:2, m:2, p:2} , {c:1, b:1, p:1}

174. Nhiều lựa chọn

Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút a là: Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút a là:  a. {f:3, c:3} b. {f:4, c:3} c. {f:4, c:3, a:3} d. {f:3, c:3, a:3 (ảnh 1)

a. {f:3, c:3} 

b. {f:4, c:3} 

c. {f:4, c:3, a:3} 

d. {f:3, c:3, a:3

175. Nhiều lựa chọn

Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt = ‘Married’, TaxInc=’80K’ thì kết luận có giá trị gì? Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt = ‘Married’, TaxInc=’80K’ thì kết luận  (ảnh 1)

a. No

b. Yes

c. Không phân lớp được

d. Thiếu thông tin để kết luận

176. Nhiều lựa chọn

Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’Yes’, MarSt = ‘Married’, TaxInc=’40K’ thì kết luận có giá trị gì?  Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’Yes’, MarSt = ‘Married’, TaxInc=’40K’ thì kết  (ảnh 1)

a. No 

b. Yes 

c. Không phân lớp được 

d. Thiếu thông tin để kết luận

177. Nhiều lựa chọn

Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt = ‘Single’, TaxInc=’140K’ thì kết luận có giá trị gì?  Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt = ‘Single’, TaxInc=’140K’ thì kết (ảnh 1)

a. Yes 

b. No 

c. Không phân lớp được 

d. Thiếu thông tin để kết luận

178. Nhiều lựa chọn

Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt = ‘Single’, TaxInc=’80K’ thì kết luận có giá trị gì? Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt = ‘Single’, TaxInc=’80K’ thì kết luận  (ảnh 1)

a. Yes 

b. No 

c. Không phân lớp được 

d. Married

179. Nhiều lựa chọn

Cho cây quyết định như hình vẽ. Có bao nhiêu luật sinh ra từ cây quyết định trên:  Cho cây quyết định như hình vẽ. Có bao nhiêu luật sinh ra từ cây quyết định trên:  a. 4 luật b. 2 luật c. 1  (ảnh 1)

a. 4 luật 

b. 2 luật 

c. 1 luật 

d. Nhiều luật

180. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Entropy của kết luận C= Play Ball là:  Cho tập ví dụ học như bảng. Entropy của kết luận C= Play Ball là:  a. Entropy(C)=1 b. Entropy(C)=3 (ảnh 1)

a. Entropy(C)=1 

b. Entropy(C)=3 

c. Entropy(C)=0.5 

d. Entropy(C)=6

181. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Entropy của thuộc tính Outlook = ‘Sunny’ là:  Cho tập ví dụ học như bảng. Entropy của thuộc tính Outlook = ‘Sunny’ là:  a. Giá trị khác b. Entropy (ảnh 1)

a. Giá trị khác 

b. Entropy(Outlook = ‘Sunny’)=1 

c. Entropy(Outlook = ‘Sunny’)=0.5 

d. Entropy(Outlook = ‘Sunny’)=0

182. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Entropy của thuộc tính Outlook là:  Cho tập ví dụ học như bảng. Entropy của thuộc tính Outlook là:  a. Giá trị khác b. Entropy(Outlook)=1  (ảnh 1)

a. Giá trị khác 

b. Entropy(Outlook)=1 

c. Entropy(Outlook)=0.5 

d. Entropy(Outlook)=0

183. Nhiều lựa chọn

Cho tập ví dụ học như bảng. P(Play Ball= ‘Yes’ | Outlook=’Overcast’) là: Cho tập ví dụ học như bảng. P(Play Ball= ‘Yes’ | Outlook=’Overcast’) là:  a. 2/3 b. 1/3 c. 0/3 d. Giá trị khác (ảnh 1)

a. 2/3 

b. 1/3 

c. 0/3 

d. Giá trị khác

184. Nhiều lựa chọn

Cho tập ví dụ học như bảng. P(Play Ball= ‘No’ | Outlook=’Overcast’) là:  Cho tập ví dụ học như bảng. P(Play Ball= ‘No’ | Outlook=’Overcast’) là:  a. 0/3 b. 1/3 c. 2/3 d. Giá trị khác (ảnh 1)

a. 0/3 

b. 1/3 

c. 2/3 

d. Giá trị khác

185. Nhiều lựa chọn

Cho tập ví dụ học như bảng. P(Play Ball= ‘No’ | Wind =’Weak’) là:  Cho tập ví dụ học như bảng. P(Play Ball= ‘No’ | Wind =’Weak’) là:  a. 2/3 b. 1/3 c. 0/3 d. Giá trị khác (ảnh 1)

a. 2/3 

b. 1/3 

c. 0/3

d. Giá trị khác

186. Nhiều lựa chọn

Cho tập ví dụ học như bảng. P(Play Ball= ‘No’) là: Cho tập ví dụ học như bảng. P(Play Ball= ‘No’) là:  a. 1/2 b. 1/3 c. 0/3 d. Giá trị khác (ảnh 1)

a. 1/2 

b. 1/3 

c. 0/3 

d. Giá trị khác

187. Nhiều lựa chọn

Cho tập ví dụ học như bảng. P(Wind= ‘Weak’) là:  Cho tập ví dụ học như bảng. P(Wind= ‘Weak’) là:  a. 4/6 b. 3/6 c. 2/6 d. Giá trị khác (ảnh 1)

a. 4/6 

b. 3/6 

c. 2/6 

d. Giá trị khác

188. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp gồm có 1 thuộc tính:  Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp gồm có 1 thuộc tính:  (ảnh 1)

a. 4 tổ hợp 

b. 5 tổ hợp 

c. 6 tổ hợp 

d. 2 tổ hợp

189. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp gồm có 2 thuộc tính phân biệt:  Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp gồm có 2 thuộc tính phân biệt: (ảnh 1)

a. 6 tổ hợp 

b. 5 tổ hợp 

c. 4 tổ hợp 

d. 2 tổ hợp

190. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp gồm có 3 thuộc tính phân biệt: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp gồm có 3 thuộc tính phân biệt: (ảnh 1)

a. 4 tổ hợp

b. 1 tổ hợp

c. 6 tổ hợp

d. 2 tổ hợp

191. Nhiều lựa chọn

Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp gồm có 4 thuộc tính phân biệt:  Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp gồm có 4 thuộc tính phân biệt: (ảnh 1)

a. 1 tổ hợp 

b. 4 tổ hợp 

c. 6 tổ hợp 

d. 2 tổ hợp

192. Nhiều lựa chọn

Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Sử dụng thuật toán liên kết đơn (Single Linkage), sau khi gom x1 và x2 thành cụm C={x1, x2} thì khoảng cách giữa cụm C và x3 bằng bao nhiêu: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Sử dụng thuật toán liên kết  (ảnh 1)

a. bằng 2 

b. bằng 3 

c. bằng 0 

d. bằng 9

193. Nhiều lựa chọn

Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Sử dụng thuật toán liên kết đơn (Single Linkage), sau khi gom x1 và x2 thành cụm C={x1, x2} thì khoảng cách giữa x3 và x4 bằng bao nhiêu:  Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Sử dụng thuật toán liên kết  (ảnh 1)

a. bằng 3 

b. bằng 2 

c. bằng 0 

d. bằng 9

194. Nhiều lựa chọn

Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự. Sử dụng thuật toán liên kết đầy đủ (Complete Linkage), sau khi gom x1 và x2 thành cụm C={x1, x2} thì khoảng cách giữa cụm C và x3 bằng bao nhiêu: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự. Sử dụng thuật toán liên kết đầy đủ  (ảnh 1)

a. bằng 9 

b. bằng 3 

c. bằng 1 

d. bằng 2

195. Nhiều lựa chọn

Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Sử dụng thuật toán liên kết đơn (Single Linkage). Bước đầu tiên ta gom x1, x2, vào cụm C1, ma trận không tương tự P1 sinh ra là ma trận cấp mấy:  Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình. Sử dụng thuật toán liên kết  (ảnh 1)

a. cấp 4 

b. cấp 5 

c. cấp 1

d. cấp 3

196. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Sử dụng thuật toán Apriori, sau lần duyệt  (ảnh 1) Sử dụng thuật toán Apriori, sau lần duyệt thứ hai, danh sách L2 chứa các tập mục thường xuyên có 2-item được tạo ra là:

a. L2={{A,C}, {B,C}, {B,E}, {C,E}}

b. L2={{ A,D}, {B,D}, {B,E}, {C,E}} 

c. L2= {{B,C}, {B,E}, {C,E}} 

d. L2= {{A,C}, {C,E}}

197. Nhiều lựa chọn

Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%). Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).  Sử dụng thuật toán Apriori, cho L2={{A,C}, (ảnh 1) Sử dụng thuật toán Apriori, cho L2={{A,C}, {B,C}, {B,E}, {C,E}} là danh sách các tập mục thường xuyên có 2-item. Giả sử tập mục {A,B} và {A,E} không là tập mục thường xuyên. Sau khi ghép các tập mục thường xuyên 2-item với nhau để được danh sách L3 chứa các tập mục thường xuyên có 3-item, L3 là: 

a. L3={{B, C, E}} 

b. L3={{A,B, C} và {A,C,E}} 

c. L3={{A,C,E} và {B,C,E }} 

d. L3={{A,B,C,}}

198. Nhiều lựa chọn

Cho FP-Tree như hình vẽ, cây điều kiện FP của nút f là: Cho FP-Tree như hình vẽ, cây điều kiện FP của nút f là:  a. Cây rỗng b. {f:4} c. {f:4, c:1} d. {f:3, c:3, a:3 (ảnh 1)

a. Cây rỗng 

b. {f:4}

c. {f:4, c:1} 

d. {f:3, c:3, a:3

199. Nhiều lựa chọn

Cho FP-Tree như hình vẽ, cây điều kiện FP của nút a là: Cho FP-Tree như hình vẽ, cây điều kiện FP của nút a là:  a. {f:4, c:3} b. {f:3, c:3} c. {f:4, c:3, a:3} d. {f:3, c:3, a:3 (ảnh 1)

a. {f:4, c:3} 

b. {f:3, c:3} 

c. {f:4, c:3, a:3} 

d. {f:3, c:3, a:3

200. Nhiều lựa chọn

Cho đồ thị như hình vẽ. Từ đồ thị ta thấy:

Cho đồ thị như hình vẽ. Từ đồ thị ta thấy:  a. Với cùng số lượng giao dịch như nhau, thời gian thực thi của (ảnh 1)

a. Với cùng số lượng giao dịch như nhau, thời gian thực thi của thuật toán FP-Growth luôn nhiều hơn thời gian thực thi của thuật toán Apriori 

b. Với cùng số lượng giao dịch như nhau, thời gian thức thi thuật toán FP-Growth luôn ít hơn thời gian thực thi thuật toán Apriori 

c. Thuật toán Apriori thực hiện nhanh hơn thuật toán FP-Growth 

d. Hai thuật toán FP-Growth và Apriori đều thức thi với thời gian rất nhỏ.

201. Nhiều lựa chọn

Cho đồ thị như hình vẽ. Nhận xét nào sau đây là sai: Cho đồ thị như hình vẽ. Nhận xét nào sau đây là sai:  a. Với cùng số lượng giao dịch như nhau, thời gian  (ảnh 1)

a. Với cùng số lượng giao dịch như nhau, thời gian thức thi thuật toán FP-Growth luôn ít hơn thời gian thực thi thuật toán Apriori 

b. Thuật toán Apriori thực hiện nhanh hơn thuật toán FP-Growth 

c. Khi số lượng giao tác rất nhỏ, thời gian thực thi của 2 thuật toán FP-Growth và Apriori là tương đương 

d. Thuật toán FP-Growth thực hiện nhanh hơn thuật toán Apriori

202. Nhiều lựa chọn

Cho đồ thị như hình vẽ, đồ thị trên biểu diễn gì ?

Cho đồ thị như hình vẽ, đồ thị trên biểu diễn gì ?  a. So sánh giữa Thời gian thực thi (tính bằng giây) của 2 (ảnh 1)

a. So sánh giữa Thời gian thực thi (tính bằng giây) của 2 thuật toán FP-Growth và Apriori trên 2 Database D1 và Database D2 

b. So sánh giữa Thời gian thực thi (tính bằng giây) của 2 thuật toán FP-Growth và Apriori theo ngưỡng của độ hỗ trợ trên 2 Database D1 và Database D2

c. So sánh 2 thuật toán FP-Growth và Apriori theo ngưỡng độ tin cậy 

d. Mối quan hệ giữa 2 thuật toán FP-Growth và Apriori

203. Nhiều lựa chọn

Cho đồ thị như hình vẽ. Từ đồ thị ta thấy:Cho đồ thị như hình vẽ. Từ đồ thị ta thấy:  a. Với cùng ngưỡng của độ hỗ trợ, thời gian thực thi của  (ảnh 1)

a. Với cùng ngưỡng của độ hỗ trợ, thời gian thực thi của thuật toán FP-Growth luôn nhiều hơn thời gian thực thi của thuật toán Apriori 

b. Với cùng ngưỡng của độ hỗ trợ, thời gian thức thi thuật toán FP-Growth luôn ít hơn thời gian thực thi thuật toán Apriori 

c. Thuật toán Apriori thực hiện nhanh hơn thuật toán FP-Growth 

d. Hai thuật toán FP-Growth và Apriori đều thức thi với thời gian rất nhỏ.

© All rights reserved VietJack