28 câu hỏi
Định dạng đầu vào mặc định là gì?
Định dạng đầu vào mặc định là XML. Nhà phát triển có thể chỉ định các định dạng đầu vào khác nếu XML không phải là đầu vào chính xác
Không có định dạng nhập mặc định. Định dạng đầu vào luôn phải được chỉ định
Định dạng đầu vào mặc định là định dạng tệp tuần tự. Dữ liệu cần được xử lý trước khi sử dụng định dạng đầu vào mặc định
Định dạng đầu vào mặc định là TextInputFormat với phần bù byte làm khóa và toàn bộ dòng dưới dạng giá trị
Cái nào không phải là một trong những đặc điểm của dữ liệu lớn?
Vận tốc (Velocity)
Tính xác thực (Veracity)
Dung lượng (Volume)
Đa dạng (Variety)
Công nghệ nào được sử dụng để lưu trữ dữ liệu trong Hadoop?
HBase
Avro
Sqoop
Zookeeper
Công nghệ nào được sử dụng để tuần tự hóa dữ liệu trong Hadoop?
HBase
Avro
Sqoop
Zookeeper
Công nghệ nào được sử dụng để nhập và xuất dữ liệu trong Hadoop?
HBase
Avro
Sqoop
Zookeeper
Công nghệ nào sau đây là cơ sở dữ liệu lưu trữ tài liệu?
HBase
Hive
Cassandra
CouchDB
Điều nào sau đây không đúng đối với Hadoop?
Đây là một khung phân tán
Thuật toán chính được sử dụng trong đó là MapReduce
Nó chạy với phần cứng phổ thông (commodity hardware)
Tất cả đều đúng
Cái nào sau đây lưu trữ dữ liệu?
NameNode
DataNode
MasterNode
Không có đáp án nào đúng
Nút nào sau đây quản lý các nút khác?
NameNode
DataNode
SlaveNode
Không có đáp án nào đúng
AVRO là gì?
Avro là một thư viện tuần tự hóa Java
Avro là một thư viện nén Java
Avro là một thư viện Java tạo các tệp bảng chia nhỏ
Không câu trả lời nào đúng
Bạn có thể chạy MapReduce trực tiếp trên dữ liệu Avro không?
Có, Avro được thiết kế đặc biệt để xử lý dữ liệu qua MapReduce
Có, nhưng cần có mã hóa mở rộng bổ sung
Không, Avro được thiết kế đặc biệt chỉ để lưu trữ dữ liệu
Avro chỉ định siêu dữ liệu để truy cập dữ liệu dễ dàng hơn. Dữ liệu này không thể được sử dụng như một phần của quá trình thực thi MapReduce
Bộ nhớ đệm phân tán là gì?
Thành phần đặc biệt trên NameNode giúp lưu vào bộ đệm dữ liệu được sử dụng thường xuyên để phản hồi máy khách nhanh hơn, được sử dụng trong bước Reduce
Thành phần đặc biệt trên DataNode giúp lưu vào bộ đệm dữ liệu được sử dụng thường xuyên để phản hồi máy khách nhanh hơn, được sử dụng trong bước Map
Thành phần lưu trữ các đối tượng Java
Thành phần cho phép các nhà phát triển triển khai các chunk để xử lý MapReduce
Có thể ghi là gì?
W ghi là một giao diện Java cần được triển khai để truyền dữ liệu trực tuyến đến các máy chủ từ xa.
W ghi là một giao diện Java cần được thực hiện để ghi HDFS.
Writes là một giao diện Java cần được triển khai để xử lý MapReduce.
Không câu trả lời nào đúng.
HBase là gì?
HBase là bộ Java API riêng biệt cho cụm Hadoop.
HBase là một phần của dự án Apache Hadoop cung cấp giao diện để quét một lượng lớn dữ liệu bằng cơ sở hạ tầng Hadoop.
HBase là một "cơ sở dữ liệu" giống như giao diện với dữ liệu cụm Hadoop.
HBase là một phần của dự án Apache Hadoop cung cấp giao diện giống SQL để xử lý dữ liệu.
Hadoop xử lý khối lượng lớn dữ liệu như thế nào?
Hadoop sử dụng song song rất nhiều máy. Điều này tối ưu hóa việc xử lý dữ liệu.
Hadoop được thiết kế đặc biệt để xử lý lượng lớn dữ liệu bằng cách tận dụng phần cứng MPP.
Hadoop gửi mã đến dữ liệu thay vì gửi dữ liệu đến mã.
Hadoop sử dụng các kỹ thuật bộ nhớ đệm phức tạp trên NameNode để tăng tốc độ xử lý dữ liệu.
Khi sử dụng HDFS, điều gì xảy ra khi tệp bị xóa khỏi dòng lệnh?
Nó sẽ bị xóa vĩnh viễn nếu thùng rác được bật.
Nó được đặt vào một thư mục thùng rác chung cho tất cả người dùng trong cụm đó.
Nó bị xóa vĩnh viễn và các thuộc tính tệp được ghi lại trong tệp nhật ký.
Nó được chuyển vào thư mục thùng rác của người dùng đã xóa nó nếu thùng rác được bật.
Khi lưu trữ tệp Hadoop, câu nào sau đây là đúng? (Chọn hai câu trả lời)
Các tệp đã lưu trữ sẽ hiển thị với phần mở rộng .arc.
Nhiều tệp nhỏ sẽ trở thành ít tệp lớn hơn.
MapReduce xử lý tên tệp gốc ngay cả sau khi tệp được lưu trữ.
Các tệp đã lưu trữ phải được lưu trữ tại Liên hợp quốc cho HDFS và MapReduce để truy cập các tệp nhỏ, gốc.
Lưu trữ dành cho các tệp cần được lưu nhưng HDFS không còn truy cập được nữa.
1 & 3
2 & 3
2 & 4
3 & 4
Khi ghi dữ liệu vào HDFS điều gì là đúng nếu hệ số sao chép là ba? (Chọn 2 câu trả lời)
1 - Dữ liệu được ghi vào DataNodes trên ba giá đỡ riêng biệt (nếu Rack Aware).
2 - Dữ liệu được lưu trữ trên mỗi Mã dữ liệu bằng một tệp riêng biệt chứa giá trị tổng kiểm tra.
3 - Dữ liệu được ghi vào các khối trên ba DataNodes khác nhau.
4 - Khách hàng được trả lại thành công khi ghi thành công khối đầu tiên và kiểm tra tổng kiểm tra.
1 & 3
2 & 3
3 & 4
1 & 4
Nhiệm vụ nào sau đây là trong số các nhiệm vụ của các DataNode trong HDFS?
E - Quản lý không gian tên hệ thống tệp.
Duy trì cây hệ thống tệp và siêu dữ liệu cho tất cả các tệp và thư mục.
Không có phương án nào đúng.
Kiểm soát việc thực hiện một tác vụ bản đồ riêng lẻ hoặc một tác vụ thu gọn.
Lưu trữ và truy xuất các khối khi được khách hàng hoặc NameNode yêu cầu.
Thành phần nào sau đây truy xuất các phân tách đầu vào trực tiếp từ HDFS để xác định số tác vụ bản đồ?
Mã Tên.
TaskTrackers.
JobClient.
JobTracker.
E - Không có lựa chọn nào đúng.
Giao diện org.apache.hadoop.io.Writes khai báo hai phương thức nào? (Chọn 2 câu trả lời.)
1 & 4
2 & 3
3 & 4
2 & 4
Câu nào sau đây là đúng đối với các cặp <key, value> của một công việc MapReduce?</key,>
Một lớp khóa phải triển khai Words.
Một lớp khóa phải triển khai WordsComp so sánh được.... C. Một lớp giá trị phải triển khai WordsComp so sánh được.
Một lớp giá trị phải mở rộng khả năng so sánh được.
Phát biểu nào sau đây là sai về Bộ nhớ đệm phân tán?
Khung công tác Hadoop sẽ đảm bảo rằng bất kỳ tệp nào trong Bộ đệm phân tán được phân phối cho tất cả các tác vụ bản đồ và giảm bớt.
Các tệp trong bộ đệm có thể là tệp văn bản hoặc chúng có thể là tệp lưu trữ như tệp zip và JAR.
Disk I/O bị tránh vì dữ liệu trong bộ đệm được lưu trong bộ nhớ.
Khung công tác Hadoop sẽ sao chép các tệp trong Bộ đệm ẩn phân tán vào nút phụ trước khi bất kỳ nhiệm vụ nào cho công việc được thực thi trên nút đó.
Thành phần nào sau đây không phải là thành phần chính của HBase?
Máy chủ Vùng.
Nagios.
ZooKeeper.
Máy chủ chính.
Điều nào sau đây là sai về RawComparator?
So sánh các khóa theo byte.
Hiệu suất có thể được cải thiện trong giai đoạn sắp xếp và đủ bằng cách sử dụng RawComparator.
Các khóa trung gian được giải mã hóa để thực hiện so sánh.
Con quỷ (daemon) nào chịu trách nhiệm sao chép dữ liệu trong Hadoop?
HDFS.
Trình theo dõi tác vụ.
Trình theo dõi công việc.
NameNode.
E - DataNode.
Các phím từ đầu ra của xáo trộn và sắp xếp thực hiện giao diện nào sau đây?
Viết được.
Có thể so sánh được.
Có thể cấu hình.
Có thể so sánh được.
E - Có thể so sánh được.
Để áp dụng một bộ kết hợp, một thuộc tính phải được thỏa mãn bởi các giá trị được phát ra từ bộ ánh xạ là gì?
Combiner luôn có thể được áp dụng cho mọi dữ liệu.
Đầu ra của bộ ánh xạ và đầu ra của bộ kết hợp phải cùng một cặp giá trị khóa và chúng có thể không đồng nhất.
Đầu ra của bộ ánh xạ và đầu ra của bộ kết hợp phải cùng một cặp giá trị khóa. Chỉ khi các giá trị thỏa mãn thuộc tính liên kết và giao hoán thì nó mới có thể được thực hiện.
