vietjack.com

300+ câu trắc nghiệm Big Data có đáp án - Phần 4
Quiz

300+ câu trắc nghiệm Big Data có đáp án - Phần 4

V
VietJack
Đại họcTrắc nghiệm tổng hợp2 lượt thi
30 câu hỏi
1. Trắc nghiệm
1 điểmKhông giới hạn

Một công việc đang chạy trong Hadoop:

Bị giết bằng lệnh

Không bao giờ có thể bị giết bằng một lệnh

Chỉ có thể bị giết bằng cách tắt NameNode

Được tạm dừng và chạy lại

Xem đáp án
2. Trắc nghiệm
1 điểmKhông giới hạn

Mục đích của lệnh sau đây là gì:

(trainingData, testData) = dataset.randomSplit([0.8, 0.2], seed=100)

Chia dữ liệu học và dữ liệu kiểm tra

Chạy chương trình học

Tạo dữ liệu ngẫu nhiên cho dữ liệu học và dữ liệu kiểm tra

Chạy chương trình dự đoán

Xem đáp án
3. Trắc nghiệm
1 điểmKhông giới hạn

Mục đích của nút checkpoint trong cụm Hadoop là:

Kiểm tra xem NameNode có hoạt động không

Kiểm tra xem tệp hình ảnh có đồng bộ giữa NodeName và NameNode phụ hay không

Hợp nhất hình ảnh và chỉnh sửa nhật ký và tải nó trở lại NameNode đang hoạt động

Kiểm tra xem các DataNode nào không thể truy cập được

Xem đáp án
4. Trắc nghiệm
1 điểmKhông giới hạn

Mục đích của sử dụng SparkML là gì:

Chạy MapReduce

Chạy các thuật toán dự đoán

Tính toán phân tán

Cả b và c

Xem đáp án
5. Trắc nghiệm
1 điểmKhông giới hạn

Mục đích của việc khởi động NameNode trong chế độ khôi phục là để:

Khôi phục NameNode không thành công

Khôi phục một DataNode bị lỗi

Khôi phục dữ liệu từ một trong những vị trí lưu trữ siêu dữ liệu

Khôi phục dữ liệu khi chỉ có một vị trí lưu trữ siêu dữ liệu

Xem đáp án
6. Trắc nghiệm
1 điểmKhông giới hạn

Mục tiêu chính của HDFS Tính sẵn sàng cao là:

Tạo bản sao của NameNode chính nhanh hơn

Để giảm thời gian chu kỳ cần thiết để khôi phục lại NameNode chính mới sau khi nút chính hiện có bị lỗi

Ngăn chặn việc mất dữ liệu do lỗi của NameNode chính

Ngăn chặn biểu mẫu tên chính trở thành điểm lỗi duy nhất

Xem đáp án
7. Trắc nghiệm
1 điểmKhông giới hạn

NameNode biết rằng DataNode đang hoạt động bằng cách sử dụng một cơ chế được gọi là:

Heartbeats

Datapulse

H-signal

Active-pulse

Xem đáp án
8. Trắc nghiệm
1 điểmKhông giới hạn

NameNode mất bản sao duy nhất của tệp fsimage. Chúng ta có thể khôi phục điều này từ:

Datanode

Secondary namenode

Checkpoint node

Never

Xem đáp án
9. Trắc nghiệm
1 điểmKhông giới hạn

Nếu chúng ta tăng kích thước tệp được lưu trữ trong HDFS mà không tăng số tệp, thì bộ nhớ được yêu cầu bởi NameNode:

Tăng

Giảm

Vẫn không thay đổi

Có thể tăng hoặc giảm

Xem đáp án
10. Trắc nghiệm
1 điểmKhông giới hạn

Trong NameNode, lượng bộ nhớ cần thiết là:

Tương tự như của node chính

Phải có ít nhất một nửa node chính

Phải gấp đôi node chính

Chỉ phụ thuộc vào số lượng node dữ liệu mà nó sẽ xử lý

Xem đáp án
11. Trắc nghiệm
1 điểmKhông giới hạn

Khi một node dự phòng được sử dụng trong một cụm thì không cần:

Node kiểm tra (Check point node)

Node tên phụ (Secondary name node)

DataNode phụ (Secondary data node)

Nhận thức về giá đỡ (Rack awareness)

Xem đáp án
12. Trắc nghiệm
1 điểmKhông giới hạn

Nhận thức về giá trong NameNode có nghĩa là:

Nó biết có bao nhiêu giá đỡ có sẵn trong cụm

Nó nhận thức được ánh xạ giữa nút và giá đỡ

Nó nhận biết được số lượng nút trong mỗi rack

Nó biết những DataNode nào không có sẵn trong cụm

Xem đáp án
13. Trắc nghiệm
1 điểmKhông giới hạn

Khi một máy được khai báo là datanode, dung lượng ổ đĩa trong đó:

Chỉ có thể được sử dụng cho lưu trữ HDFS

Có thể được sử dụng cho cả lưu trữ HDFS và không phải HDFS

Không thể truy cập bằng các lệnh không phải hadoop

Không thể lưu trữ các tệp văn bản

Xem đáp án
14. Trắc nghiệm
1 điểmKhông giới hạn

Mục đích của nút checkpoint trong cụm Hadoop là:

Kiểm tra xem NameNode có hoạt động không

Kiểm tra xem tệp hình ảnh có đồng bộ giữa NodeName và NameNode phụ hay không

Hợp nhất hình ảnh và chỉnh sửa nhật ký và tải nó trở lại NameNode đang hoạt động

Kiểm tra xem các DataNode nào không thể truy cập được

Xem đáp án
15. Trắc nghiệm
1 điểmKhông giới hạn

Khi một tệp trong HDFS bị người dùng xóa:

Nó đã mất vĩnh viễn

Nó sẽ đi vào thùng rác nếu được định cấu hình

Nó bị ẩn khỏi người dùng nhưng vẫn ở trong hệ thống tệp

File trong HDFS không thể bị xóa

Xem đáp án
16. Trắc nghiệm
1 điểmKhông giới hạn

Nguồn của kiến trúc HDFS trong Hadoop có nguồn gốc là:

Hệ thống tệp phân phối của Google

Hệ thống tệp phân tán của Yahoo

Hệ thống tệp phân tán của Facebook

Hệ thống tệp phân tán Azure

Xem đáp án
17. Trắc nghiệm
1 điểmKhông giới hạn

Giao tiếp giữa các quá trình giữa các nút khác nhau trong Hadoop sử dụng:

REST API

RPC

RMI

IP Exchange

Xem đáp án
18. Trắc nghiệm
1 điểmKhông giới hạn

Loại dữ liệu mà Hadoop có thể xử lý là:

Structured (Có cấu trúc)

Semi-structured (Bán cấu trúc)

Unstructured (Không có cấu trúc)

All of the above (Tất cả những điều trên)

Xem đáp án
19. Trắc nghiệm
1 điểmKhông giới hạn

YARN là viết tắt của:

Yahoo's another resource name

Yet another resource negotiator

Yahoo's archived Resource names

Yet another resource need

Xem đáp án
20. Trắc nghiệm
1 điểmKhông giới hạn

Chế độ cài đặt phân phối hoàn toàn (không ảo hóa) cần tối thiểu:

2 Máy vật lý

3 Máy vật lý

4 Máy vật lý

1 Máy vật lý

Xem đáp án
21. Trắc nghiệm
1 điểmKhông giới hạn

Chạy Start-dfs.sh kết quả là:

Bắt đầu NameNode và DataNode

Chỉ NameNode bắt đầu

Chỉ bắt đầu datanode

Khởi động NameNode và trình quản lý tài nguyên

Xem đáp án
22. Trắc nghiệm
1 điểmKhông giới hạn

Điều nào sau đây không phải là mục tiêu của HDFS?

Phát hiện lỗi và khôi phục

Xử lý tập dữ liệu khổng lồ

Ngăn chặn việc xóa dữ liệu

Cung cấp băng thông mạng cao để di chuyển dữ liệu

Xem đáp án
23. Trắc nghiệm
1 điểmKhông giới hạn

Lệnh "hadoop fs -test -z URI" cho kết quả 0 nếu:

Nếu đường dẫn là một thư mục

Nếu đường dẫn là một tệp

Nếu đường dẫn không trống

Nếu tệp có độ dài bằng 0

Xem đáp án
24. Trắc nghiệm
1 điểmKhông giới hạn

Trong HDFS, các tệp không thể:

Đọc

Xóa

Thực thi

Lưu trữ (Archived)

Xem đáp án
25. Trắc nghiệm
1 điểmKhông giới hạn

hadoop fs –expunge:

Cung cấp danh sách các DataNode

Được sử dụng để xóa một tệp

Được sử dụng để trao đổi một tệp giữa hai DataNode

Dọn sạch thùng rác

Xem đáp án
26. Trắc nghiệm
1 điểmKhông giới hạn

Tất cả các tệp trong một thư mục trong HDFS có thể được hợp nhất với nhau bằng cách sử dụng:

Getmerge

Putmerge

Remerge

Mergeall

Xem đáp án
27. Trắc nghiệm
1 điểmKhông giới hạn

Hệ số sao chép của tệp trong HDFS có thể được thay đổi bằng cách sử dụng:

Changerep

Rerep

Setrep

Xrep

Xem đáp án
28. Trắc nghiệm
1 điểmKhông giới hạn

Lệnh được sử dụng để sao chép một thư mục từ node này sang node khác trong HDFS là:

Rcp

Dcp

Drcp

Distcp

Xem đáp án
29. Trắc nghiệm
1 điểmKhông giới hạn

Tệp lưu trữ được tạo trong Hadoop luôn có phần mở rộng là:

Hrc

Har

Hrh

Hrar

Xem đáp án
30. Trắc nghiệm
1 điểmKhông giới hạn

Để hủy lưu trữ một tệp đã được lưu trữ trong Hadoop, hãy sử dụng lệnh:

Unrar

Unhar

Cp

Cphar

Xem đáp án
© All rights reserved VietJack