30 câu hỏi
Bộ nhớ đệm phân tán là gì?
Bộ đệm phân tán là thành phần đặc biệt trên NameNode sẽ lưu vào bộ đệm dữ liệu được sử dụng thường xuyên để phản hồi máy khách nhanh hơn. Nó được sử dụng trong bước giảm
Bộ nhớ đệm phân tán là thành phần đặc biệt trên DataNode sẽ lưu vào bộ đệm dữ liệu được sử dụng thường xuyên để phản hồi máy khách nhanh hơn. Nó được sử dụng trong bước bản đồ
Bộ đệm phân tán là một thành phần lưu trữ các đối tượng java
Bộ nhớ đệm phân tán là một thành phần cho phép các nhà phát triển triển khai các chum để xử lý Map-Reduce
Có thể ghi là gì?
W ghi là một giao diện java cần được triển khai để truyền dữ liệu trực tuyến đến các máy chủ từ xa
W ghi là một giao diện java cần được thực hiện để ghi HDFS
Writes là một giao diện java cần được triển khai để xử lý MapReduce
Không câu trả lời nào đúng
HBASE là gì?
Hbase là bộ Java API riêng biệt cho cụm Hadoop
Hbase là một phần của dự án Apache Hadoop cung cấp giao diện để quét một lượng lớn dữ liệu bằng cơ sở hạ tầng Hadoop
Hbase là một "cơ sở dữ liệu" giống như giao diện với dữ liệu cụm Hadoop
HBase là một phần của dự án Apache Hadoop cung cấp giao diện giống SQL để xử lý dữ liệu
Hadoop xử lý khối lượng lớn dữ liệu như thế nào?
Hadoop sử dụng song song rất nhiều máy. Điều này tối ưu hóa việc xử lý dữ liệu
Hadoop được thiết kế đặc biệt để xử lý lượng lớn dữ liệu bằng cách tận dụng phần cứng MPP
Hadoop gửi mã đến dữ liệu thay vì gửi dữ liệu đến mã
Hadoop sử dụng các kỹ thuật bộ nhớ đệm phức tạp trên NameNode để tăng tốc độ xử lý dữ liệu
Khi sử dụng HDFS, điều gì xảy ra khi tệp bị xóa khỏi dòng lệnh?
Nó sẽ bị xóa vĩnh viễn nếu thùng rác được bật
Nó được đặt vào một thư mục thùng rác chung cho tất cả người dùng cho cụm đó
Nó bị xóa vĩnh viễn và các thuộc tính tệp được ghi lại trong tệp nhật ký
Nó được chuyển vào thư mục thùng rác của người dùng đã xóa nó nếu thùng rác được bật
Khi lưu trữ tệp Hadoop, câu nào sau đây là đúng? (Chọn hai câu trả lời)
Các tệp đã lưu trữ sẽ hiển thị với phần mở rộng .arc. Nhiều tệp nhỏ sẽ trở thành ít tệp lớn hơn
MapReduce xử lý tên tệp gốc ngay cả sau khi tệp được lưu trữ
Các tệp đã lưu trữ phải được lưu trữ tại Liên hợp quốc cho HDFS và MapReduce để truy cập các tệp nhỏ, gốc
Lưu trữ dành cho các tệp cần được lưu nhưng HDFS không còn truy cập được nữa
1 & 3
2 & 3
2 & 4
3 & 4
Khi ghi dữ liệu vào HDFS điều gì là đúng nếu hệ số sao chép là ba? (Chọn 2 câu trả lời)
Dữ liệu được ghi vào DataNodes trên ba giá đỡ riêng biệt (nếu Rack Aware)
Dữ liệu được lưu trữ trên mỗi Mã dữ liệu bằng một tệp riêng biệt chứa giá trị tổng kiểm tra
Dữ liệu được ghi vào các khối trên ba DataNodes khác nhau
Khách hàng được trả lại thành công khi ghi thành công khối đầu tiên và kiểm tra tổng kiểm tra
1 & 3
2 & 3
3 & 4
1 & 4
Nhiệm vụ nào sau đây là trong số các nhiệm vụ của các DataNode trong HDFS?
Duy trì cây hệ thống tệp và siêu dữ liệu cho tất cả các tệp và thư mục
Không có phương án nào đúng
Kiểm soát việc thực hiện một tác vụ bản đồ riêng lẻ hoặc một tác vụ thu gọn
Lưu trữ và truy xuất các khối khi được khách hàng hoặc NameNode yêu cầu
Quản lý không gian tên hệ thống tệp
Thành phần nào sau đây truy xuất các phân tách đầu vào trực tiếp từ HDFS để xác định số tác vụ bản đồ?
Mã Tên
TaskTrackers
JobClient
JobTracker
Không có lựa chọn nào đúng
Giao diện org.apache.hadoop.io.Worites khai báo hai phương thức nào? (Chọn 2 câu trả lời.)
public void readFields (DataInput)
công khai khoảng trống đọc (DataInput)
public void writeFields (DataOutput)
ghi khoảng trống công khai (DataOutput)
1 & 4
2 & 3
3 & 4
2 & 4
Câu nào sau đây là đúng đối với các cặp <key, value> của một công việc MapReduce?</key,>
Một lớp khóa phải triển khai Words
Một lớp khóa phải triển khai WordsComp so sánh được
Một lớp giá trị phải triển khai WordsComp so sánh được
Một lớp giá trị phải mở rộng khả năng so sánh được
Phát biểu nào sau đây là sai về Bộ nhớ đệm phân tán?
Khung công tác Hadoop sẽ đảm bảo rằng bất kỳ tệp nào trong Bộ đệm phân tán được phân phối cho tất cả các tác vụ bản đồ và giảm bớt
Các tệp trong bộ đệm có thể là tệp văn bản hoặc chúng có thể là tệp lưu trữ như tệp zip và JAR
Disk I / O bị tránh vì dữ liệu trong bộ đệm được lưu trong bộ nhớ
Khung công tác Hadoop sẽ sao chép các tệp trong Bộ đệm ẩn phân tán vào nút phụ trước khi bất kỳ nhiệm vụ nào cho công việc được thực thi trên nút đó
Thành phần nào sau đây không phải là thành phần chính của HBase?
Máy chủ Vùng
Nagios
ZooKeeper
Máy chủ chính
Điều nào sau đây là sai về RawComparator?
So sánh các khóa theo byte
Hiệu suất có thể được cải thiện trong giai đoạn sắp xếp và đủ bằng cách sử dụng RawComparator
Các khóa trung gian được giải mã hóa để thực hiện so sánh
Con quỷ (demon) nào chịu trách nhiệm sao chép dữ liệu trong Hadoop?
HDFS
Trình theo dõi tác vụ
Trình theo dõi công việc
NameNode
DataNode
Các phím từ đầu ra của xáo trộn và sắp xếp thực hiện giao diện nào sau đây?
Viết được
Có thể so sánh được
Có thể cấu hình
Có thể so sánh được
Có thể so sánh được
Để áp dụng một bộ kết hợp, một thuộc tính phải được thỏa mãn bởi các giá trị được phát ra từ bộ ánh xạ là gì?
Combiner luôn có thể được áp dụng cho mọi dữ liệu
Đầu ra của bộ ánh xạ và đầu ra của bộ kết hợp phải cùng một cặp giá trị khóa và chúng có thể không đồng nhất
Đầu ra của bộ ánh xạ và đầu ra của bộ kết hợp phải cùng một cặp giá trị khóa. Chỉ khi các giá trị thỏa mãn thuộc tính liên kết và giao hoán thì nó mới có thể được thực hiện
Dữ liệu của Big Data là loại nào?
Structured Data
Semi-Structured Data
Unstructured Data
Tất cả
Đặc trưng nào không phải của Big Data?
Volume
Variety
Vision
Velocity
NoSQL là?
Database
Field
Document
Collection
Mục tiêu của NoSQL là gì?
NoSQL cung cấp một giải pháp thay thế cho cơ sở dữ liệu SQL để lưu trữ dữ liệu dạng văn bản
Cơ sở dữ liệu NoSQL cho phép lưu trữ dữ liệu không có cấu trúc
NoSQL không thích hợp để lưu trữ dữ liệu có cấu trúc
NoSQL là một định dạng dữ liệu mới để lưu trữ các tập dữ liệu lớn
Cloudera phát triển công cụ nào?
HCatalog
Hbase
Imphala
Oozie
Loại nào không phải là CSDL NoSQL?
SQL Server
MongoDB
Cassandra
Không có
Đâu là một kiểu của CSDL NoSQL?
SQL
Document databases
JSON
Tất cả
Chọn đúng 5 đặc trưng cho Big Data?
Volume, Velocity, Variety, Veracity, Value
Volume, Videos, Velocity, Variability, Value
Volume, Variability, Veracity, Visualization, Value
Volume, Velocity, Veracity, Visualization, Value
Velocity (Tốc độ) là đặc trưng nói về?
Tốc độ gia tăng khối lượng dữ liệu lớn
Tốc độ cập nhật dữ liệu lớn
Tốc độ xử lý dữ liệu lớn
Tốc độ lưu trữ dữ liệu lớn
Variety (Tính đa dạng) là đặc trưng về?
Kiểu dữ liệu thu thập
Kiểu nội dung dữ liệu
Nguồn thu thập dữ liệu
Phương thức xử lý dữ liệu
Đặc trưng quan trọng nhất của Big Data?
Khối lượng
Tính đa dạng
Tốc độ
Tất cả
Đâu là đặc trưng quyết định việc triển khai Dữ liệu lớn?
Khối lượng
Giá trị
Tốc Độ
Tính đa dạng
Tích hợp dữ liệu là quá trình?
Kết hợp các dữ liệu không đồng nhất từ nhiều nguồn khác nhau
Sao chép dữ liệu vào CSDL hệ thống để tiến hành phân tích
Làm sạch các dữ liệu thu thập được từ các hệ thống thành phần
Tăng giá trị từ các tài nguyên dữ liệu đang lưu trữ phân tán
