vietjack.com

100+ câu trắc nghiệm Dữ liệu lớn có đáp án - Phần 5
Quiz

100+ câu trắc nghiệm Dữ liệu lớn có đáp án - Phần 5

V
VietJack
Đại họcTrắc nghiệm tổng hợp3 lượt thi
28 câu hỏi
1. Trắc nghiệm
1 điểmKhông giới hạn

Định dạng đầu vào mặc định là gì?

Định dạng đầu vào mặc định là XML. Nhà phát triển có thể chỉ định các định dạng đầu vào khác nếu XML không phải là đầu vào chính xác

Không có định dạng nhập mặc định. Định dạng đầu vào luôn phải được chỉ định

Định dạng đầu vào mặc định là định dạng tệp tuần tự. Dữ liệu cần được xử lý trước khi sử dụng định dạng đầu vào mặc định

Định dạng đầu vào mặc định là TextInputFormat với phần bù byte làm khóa và toàn bộ dòng dưới dạng giá trị

Xem đáp án
2. Trắc nghiệm
1 điểmKhông giới hạn

Cái nào không phải là một trong những đặc điểm của dữ liệu lớn?

Vận tốc (Velocity)

Tính xác thực (Veracity)

Dung lượng (Volume)

Đa dạng (Variety)

Xem đáp án
3. Trắc nghiệm
1 điểmKhông giới hạn

Công nghệ nào được sử dụng để lưu trữ dữ liệu trong Hadoop?

HBase

Avro

Sqoop

Zookeeper

Xem đáp án
4. Trắc nghiệm
1 điểmKhông giới hạn

Công nghệ nào được sử dụng để tuần tự hóa dữ liệu trong Hadoop?

HBase

Avro

Sqoop

Zookeeper

Xem đáp án
5. Trắc nghiệm
1 điểmKhông giới hạn

Công nghệ nào được sử dụng để nhập và xuất dữ liệu trong Hadoop?

HBase

Avro

Sqoop

Zookeeper

Xem đáp án
6. Trắc nghiệm
1 điểmKhông giới hạn

Công nghệ nào sau đây là cơ sở dữ liệu lưu trữ tài liệu?

HBase

Hive

Cassandra

CouchDB

Xem đáp án
7. Trắc nghiệm
1 điểmKhông giới hạn

Điều nào sau đây không đúng đối với Hadoop?

Đây là một khung phân tán

Thuật toán chính được sử dụng trong đó là MapReduce

Nó chạy với phần cứng phổ thông (commodity hardware)

Tất cả đều đúng

Xem đáp án
8. Trắc nghiệm
1 điểmKhông giới hạn

Cái nào sau đây lưu trữ dữ liệu?

NameNode

DataNode

MasterNode

Không có đáp án nào đúng

Xem đáp án
9. Trắc nghiệm
1 điểmKhông giới hạn

Nút nào sau đây quản lý các nút khác?

NameNode

DataNode

SlaveNode

Không có đáp án nào đúng

Xem đáp án
10. Trắc nghiệm
1 điểmKhông giới hạn

AVRO là gì?

Avro là một thư viện tuần tự hóa Java

Avro là một thư viện nén Java

Avro là một thư viện Java tạo các tệp bảng chia nhỏ

Không câu trả lời nào đúng

Xem đáp án
11. Trắc nghiệm
1 điểmKhông giới hạn

Bạn có thể chạy MapReduce trực tiếp trên dữ liệu Avro không?

Có, Avro được thiết kế đặc biệt để xử lý dữ liệu qua MapReduce

Có, nhưng cần có mã hóa mở rộng bổ sung

Không, Avro được thiết kế đặc biệt chỉ để lưu trữ dữ liệu

Avro chỉ định siêu dữ liệu để truy cập dữ liệu dễ dàng hơn. Dữ liệu này không thể được sử dụng như một phần của quá trình thực thi MapReduce

Xem đáp án
12. Trắc nghiệm
1 điểmKhông giới hạn

Bộ nhớ đệm phân tán là gì?

Thành phần đặc biệt trên NameNode giúp lưu vào bộ đệm dữ liệu được sử dụng thường xuyên để phản hồi máy khách nhanh hơn, được sử dụng trong bước Reduce

Thành phần đặc biệt trên DataNode giúp lưu vào bộ đệm dữ liệu được sử dụng thường xuyên để phản hồi máy khách nhanh hơn, được sử dụng trong bước Map

Thành phần lưu trữ các đối tượng Java

Thành phần cho phép các nhà phát triển triển khai các chunk để xử lý MapReduce

Xem đáp án
13. Trắc nghiệm
1 điểmKhông giới hạn

Có thể ghi là gì?

W ghi là một giao diện Java cần được triển khai để truyền dữ liệu trực tuyến đến các máy chủ từ xa.

W ghi là một giao diện Java cần được thực hiện để ghi HDFS.

Writes là một giao diện Java cần được triển khai để xử lý MapReduce.

Không câu trả lời nào đúng.

Xem đáp án
14. Trắc nghiệm
1 điểmKhông giới hạn

HBase là gì?

HBase là bộ Java API riêng biệt cho cụm Hadoop.

HBase là một phần của dự án Apache Hadoop cung cấp giao diện để quét một lượng lớn dữ liệu bằng cơ sở hạ tầng Hadoop.

HBase là một "cơ sở dữ liệu" giống như giao diện với dữ liệu cụm Hadoop.

HBase là một phần của dự án Apache Hadoop cung cấp giao diện giống SQL để xử lý dữ liệu.

Xem đáp án
15. Trắc nghiệm
1 điểmKhông giới hạn

Hadoop xử lý khối lượng lớn dữ liệu như thế nào?

Hadoop sử dụng song song rất nhiều máy. Điều này tối ưu hóa việc xử lý dữ liệu.

Hadoop được thiết kế đặc biệt để xử lý lượng lớn dữ liệu bằng cách tận dụng phần cứng MPP.

Hadoop gửi mã đến dữ liệu thay vì gửi dữ liệu đến mã.

Hadoop sử dụng các kỹ thuật bộ nhớ đệm phức tạp trên NameNode để tăng tốc độ xử lý dữ liệu.

Xem đáp án
16. Trắc nghiệm
1 điểmKhông giới hạn

Khi sử dụng HDFS, điều gì xảy ra khi tệp bị xóa khỏi dòng lệnh?

Nó sẽ bị xóa vĩnh viễn nếu thùng rác được bật.

Nó được đặt vào một thư mục thùng rác chung cho tất cả người dùng trong cụm đó.

Nó bị xóa vĩnh viễn và các thuộc tính tệp được ghi lại trong tệp nhật ký.

Nó được chuyển vào thư mục thùng rác của người dùng đã xóa nó nếu thùng rác được bật.

Xem đáp án
17. Trắc nghiệm
1 điểmKhông giới hạn

Khi lưu trữ tệp Hadoop, câu nào sau đây là đúng? (Chọn hai câu trả lời)

Các tệp đã lưu trữ sẽ hiển thị với phần mở rộng .arc.

Nhiều tệp nhỏ sẽ trở thành ít tệp lớn hơn.

MapReduce xử lý tên tệp gốc ngay cả sau khi tệp được lưu trữ.

Các tệp đã lưu trữ phải được lưu trữ tại Liên hợp quốc cho HDFS và MapReduce để truy cập các tệp nhỏ, gốc.

Lưu trữ dành cho các tệp cần được lưu nhưng HDFS không còn truy cập được nữa.

1 & 3

2 & 3

2 & 4

3 & 4

Xem đáp án
18. Trắc nghiệm
1 điểmKhông giới hạn

Khi ghi dữ liệu vào HDFS điều gì là đúng nếu hệ số sao chép là ba? (Chọn 2 câu trả lời)

1 - Dữ liệu được ghi vào DataNodes trên ba giá đỡ riêng biệt (nếu Rack Aware).

2 - Dữ liệu được lưu trữ trên mỗi Mã dữ liệu bằng một tệp riêng biệt chứa giá trị tổng kiểm tra.

3 - Dữ liệu được ghi vào các khối trên ba DataNodes khác nhau.

4 - Khách hàng được trả lại thành công khi ghi thành công khối đầu tiên và kiểm tra tổng kiểm tra.

1 & 3

2 & 3

3 & 4

1 & 4

Xem đáp án
19. Trắc nghiệm
1 điểmKhông giới hạn

Nhiệm vụ nào sau đây là trong số các nhiệm vụ của các DataNode trong HDFS?

E - Quản lý không gian tên hệ thống tệp.

Duy trì cây hệ thống tệp và siêu dữ liệu cho tất cả các tệp và thư mục.

Không có phương án nào đúng.

Kiểm soát việc thực hiện một tác vụ bản đồ riêng lẻ hoặc một tác vụ thu gọn.

Lưu trữ và truy xuất các khối khi được khách hàng hoặc NameNode yêu cầu.

Xem đáp án
20. Trắc nghiệm
1 điểmKhông giới hạn

Thành phần nào sau đây truy xuất các phân tách đầu vào trực tiếp từ HDFS để xác định số tác vụ bản đồ?

Mã Tên.

TaskTrackers.

JobClient.

JobTracker.

E - Không có lựa chọn nào đúng.

Xem đáp án
21. Trắc nghiệm
1 điểmKhông giới hạn

Giao diện org.apache.hadoop.io.Writes khai báo hai phương thức nào? (Chọn 2 câu trả lời.)

1 & 4

2 & 3

3 & 4

2 & 4

Xem đáp án
22. Trắc nghiệm
1 điểmKhông giới hạn

Câu nào sau đây là đúng đối với các cặp <key, value> của một công việc MapReduce?</key,>

Một lớp khóa phải triển khai Words.

Một lớp khóa phải triển khai WordsComp so sánh được.... C. Một lớp giá trị phải triển khai WordsComp so sánh được.

Một lớp giá trị phải mở rộng khả năng so sánh được.

Xem đáp án
23. Trắc nghiệm
1 điểmKhông giới hạn

Phát biểu nào sau đây là sai về Bộ nhớ đệm phân tán?

Khung công tác Hadoop sẽ đảm bảo rằng bất kỳ tệp nào trong Bộ đệm phân tán được phân phối cho tất cả các tác vụ bản đồ và giảm bớt.

Các tệp trong bộ đệm có thể là tệp văn bản hoặc chúng có thể là tệp lưu trữ như tệp zip và JAR.

Disk I/O bị tránh vì dữ liệu trong bộ đệm được lưu trong bộ nhớ.

Khung công tác Hadoop sẽ sao chép các tệp trong Bộ đệm ẩn phân tán vào nút phụ trước khi bất kỳ nhiệm vụ nào cho công việc được thực thi trên nút đó.

Xem đáp án
24. Trắc nghiệm
1 điểmKhông giới hạn

Thành phần nào sau đây không phải là thành phần chính của HBase?

Máy chủ Vùng.

Nagios.

ZooKeeper.

Máy chủ chính.

Xem đáp án
25. Trắc nghiệm
1 điểmKhông giới hạn

Điều nào sau đây là sai về RawComparator?

So sánh các khóa theo byte.

Hiệu suất có thể được cải thiện trong giai đoạn sắp xếp và đủ bằng cách sử dụng RawComparator.

Các khóa trung gian được giải mã hóa để thực hiện so sánh.

Xem đáp án
26. Trắc nghiệm
1 điểmKhông giới hạn

Con quỷ (daemon) nào chịu trách nhiệm sao chép dữ liệu trong Hadoop?

HDFS.

Trình theo dõi tác vụ.

Trình theo dõi công việc.

NameNode.

E - DataNode.

Xem đáp án
27. Trắc nghiệm
1 điểmKhông giới hạn

Các phím từ đầu ra của xáo trộn và sắp xếp thực hiện giao diện nào sau đây?

Viết được.

Có thể so sánh được.

Có thể cấu hình.

Có thể so sánh được.

E - Có thể so sánh được.

Xem đáp án
28. Trắc nghiệm
1 điểmKhông giới hạn

Để áp dụng một bộ kết hợp, một thuộc tính phải được thỏa mãn bởi các giá trị được phát ra từ bộ ánh xạ là gì?

Combiner luôn có thể được áp dụng cho mọi dữ liệu.

Đầu ra của bộ ánh xạ và đầu ra của bộ kết hợp phải cùng một cặp giá trị khóa và chúng có thể không đồng nhất.

Đầu ra của bộ ánh xạ và đầu ra của bộ kết hợp phải cùng một cặp giá trị khóa. Chỉ khi các giá trị thỏa mãn thuộc tính liên kết và giao hoán thì nó mới có thể được thực hiện.

Xem đáp án
© All rights reserved VietJack