Chuyển đến nội dung

Trắc nghiệm Big Data online có đáp án

Trắc Nghiệm Kỹ Thuật & Công Nghệ

Trắc nghiệm Big Data online có đáp án

Ngày cập nhật: Tháng 2 6, 2026

Lưu ý và Miễn trừ trách nhiệm:Toàn bộ nội dung câu hỏi, đáp án và thông tin được cung cấp trên website này được xây dựng nhằm mục đích tham khảo, hỗ trợ ôn tập và củng cố kiến thức. Chúng tôi không cam kết về tính chính xác tuyệt đối, tính cập nhật hay độ tin cậy hoàn toàn của các dữ liệu này. Nội dung tại đây KHÔNG PHẢI LÀ ĐỀ THI CHÍNH THỨC của bất kỳ tổ chức giáo dục, trường đại học hay cơ quan cấp chứng chỉ nào. Người sử dụng tự chịu trách nhiệm khi sử dụng các thông tin này vào mục đích học tập, nghiên cứu hoặc áp dụng vào thực tiễn. Chúng tôi không chịu trách nhiệm pháp lý đối với bất kỳ sai sót, thiệt hại hoặc hậu quả nào phát sinh từ việc sử dụng thông tin trên website này.

Cùng bắt đầu ngay với bộ Trắc nghiệm Big Data online có đáp án. Đây là lựa chọn phù hợp để bạn vừa luyện tập vừa đánh giá năng lực bản thân. Lựa chọn bộ câu hỏi phù hợp bên dưới để khởi động. Chúc bạn đạt kết quả tốt và ngày càng tiến bộ

★★★★★
★★★★★
4.7/5 (249 đánh giá)

1. Trong bối cảnh Big Data, ‘data mining’ là gì?

A. Việc thu thập dữ liệu từ các nguồn khác nhau.
B. Việc làm sạch và chuyển đổi dữ liệu.
C. Việc khám phá các mẫu, xu hướng và thông tin hữu ích từ dữ liệu lớn.
D. Việc lưu trữ dữ liệu trong một data warehouse.

2. Công cụ nào sau đây thường được sử dụng để trực quan hóa dữ liệu Big Data?

A. HBase.
B. Flume.
C. Tableau.
D. Kafka.

3. HBase là gì và nó được sử dụng để làm gì?

A. Một hệ thống quản lý cơ sở dữ liệu quan hệ.
B. Một cơ sở dữ liệu NoSQL phân tán, có khả năng mở rộng, được sử dụng để lưu trữ và truy cập dữ liệu lớn một cách nhanh chóng.
C. Một công cụ để xử lý dữ liệu streaming.
D. Một framework để thực hiện machine learning trên Hadoop.

4. Hadoop được sử dụng chủ yếu để làm gì trong lĩnh vực Big Data?

A. Phân tích dữ liệu thời gian thực.
B. Lưu trữ và xử lý dữ liệu phân tán.
C. Trực quan hóa dữ liệu.
D. Quản lý cơ sở dữ liệu quan hệ.

5. Trong bối cảnh Big Data, thuật ngữ ‘CAP theorem’ đề cập đến điều gì?

A. Một phương pháp để tối ưu hóa truy vấn SQL.
B. Một lý thuyết về giới hạn của các hệ thống dữ liệu phân tán, nói rằng chỉ có thể đảm bảo tối đa hai trong ba thuộc tính: Consistency (Tính nhất quán), Availability (Tính khả dụng), và Partition tolerance (Khả năng chịu phân vùng).
C. Một kỹ thuật để nén dữ liệu lớn.
D. Một framework để xây dựng các ứng dụng machine learning.

6. Thuật ngữ ‘real-time processing’ trong Big Data đề cập đến điều gì?

A. Việc xử lý dữ liệu sau khi nó đã được lưu trữ trong một data warehouse.
B. Việc xử lý dữ liệu ngay khi nó được tạo ra, cho phép phản ứng nhanh chóng với các sự kiện.
C. Việc xử lý dữ liệu theo lịch trình định kỳ.
D. Việc xử lý dữ liệu bằng các công cụ trực quan hóa.

7. Thuật ngữ ‘data lineage’ đề cập đến điều gì trong Big Data?

A. Việc sao lưu và phục hồi dữ liệu.
B. Việc theo dõi nguồn gốc và hành trình của dữ liệu từ khi nó được tạo ra đến khi nó được sử dụng.
C. Việc nén dữ liệu để giảm dung lượng lưu trữ.
D. Việc mã hóa dữ liệu để bảo vệ khỏi truy cập trái phép.

8. Trong ngữ cảnh Big Data, ‘lambda architecture’ là gì?

A. Một kiến trúc để xử lý dữ liệu batch và streaming song song, kết hợp kết quả để cung cấp cả tốc độ và độ chính xác.
B. Một phương pháp để quản lý metadata trong data lake.
C. Một kỹ thuật để tối ưu hóa truy vấn SQL.
D. Một framework để xây dựng các ứng dụng machine learning.

9. Trong ngữ cảnh Big Data, ‘data lake’ là gì?

A. Một kho lưu trữ dữ liệu đã được xử lý và chuyển đổi sẵn sàng cho việc phân tích.
B. Một kho lưu trữ dữ liệu thô ở định dạng gốc của nó, cho phép lưu trữ dữ liệu có cấu trúc, bán cấu trúc và phi cấu trúc.
C. Một hệ thống quản lý cơ sở dữ liệu quan hệ.
D. Một công cụ trực quan hóa dữ liệu.

10. Thuật ngữ ‘schema-on-read’ thường được liên kết với loại kho lưu trữ dữ liệu nào?

A. Data warehouse.
B. Data mart.
C. Data lake.
D. Relational database.

11. Công cụ nào sau đây được sử dụng để quản lý và điều phối các công việc (jobs) trong một cluster Hadoop?

A. HDFS.
B. MapReduce.
C. YARN.
D. Pig.

12. Yếu tố nào sau đây KHÔNG phải là một trong ‘5Vs’ đặc trưng của Big Data?

A. Value (Giá trị).
B. Veracity (Độ tin cậy).
C. Variety (Sự đa dạng).
D. Velocity (Vận tốc).

13. Vai trò của Kafka trong kiến trúc Big Data là gì?

A. Lưu trữ dữ liệu lịch sử.
B. Xử lý dữ liệu batch.
C. Truyền tải dữ liệu streaming thời gian thực giữa các hệ thống.
D. Trực quan hóa dữ liệu.

14. Trong bối cảnh Big Data, ‘data quality’ đề cập đến điều gì?

A. Chỉ việc dung lượng lưu trữ của dữ liệu.
B. Chỉ việc tốc độ xử lý dữ liệu.
C. Tính chính xác, đầy đủ, nhất quán và kịp thời của dữ liệu.
D. Chỉ việc bảo mật của dữ liệu.

15. Công cụ nào sau đây thường được sử dụng để thu thập dữ liệu từ nhiều nguồn khác nhau (ví dụ: log files, social media feeds) vào Hadoop?

A. Hive.
B. Pig.
C. Flume.
D. HBase.

16. Thuật ngữ ‘data governance’ đề cập đến điều gì trong bối cảnh Big Data?

A. Việc quản lý cơ sở hạ tầng phần cứng cho Big Data.
B. Các chính sách và quy trình để đảm bảo chất lượng, tính nhất quán, bảo mật và tuân thủ của dữ liệu.
C. Việc tối ưu hóa hiệu suất truy vấn SQL.
D. Việc lựa chọn các công cụ và công nghệ phù hợp cho Big Data.

17. Ưu điểm chính của việc sử dụng các định dạng file columnar (ví dụ: Parquet, ORC) trong Big Data là gì?

A. Tăng tốc độ ghi dữ liệu.
B. Giảm dung lượng lưu trữ và tăng tốc độ truy vấn bằng cách chỉ đọc các cột cần thiết.
C. Đơn giản hóa việc quản lý metadata.
D. Hỗ trợ tốt hơn cho dữ liệu phi cấu trúc.

18. Sự khác biệt chính giữa ‘data warehouse’ và ‘data lake’ là gì?

A. Data warehouse lưu trữ dữ liệu thô, trong khi data lake lưu trữ dữ liệu đã được xử lý.
B. Data warehouse lưu trữ dữ liệu có cấu trúc, trong khi data lake có thể lưu trữ dữ liệu có cấu trúc, bán cấu trúc và phi cấu trúc.
C. Data warehouse rẻ hơn data lake để triển khai và duy trì.
D. Data warehouse nhanh hơn data lake trong việc truy vấn dữ liệu.

19. Kỹ thuật ‘data virtualization’ có vai trò gì trong Big Data?

A. Tạo ra các bản sao dữ liệu để tăng tính sẵn sàng.
B. Cho phép truy cập và kết hợp dữ liệu từ nhiều nguồn khác nhau mà không cần di chuyển dữ liệu.
C. Nén dữ liệu để giảm dung lượng lưu trữ.
D. Mã hóa dữ liệu để bảo vệ khỏi truy cập trái phép.

20. Trong ngữ cảnh Big Data, ‘data scientist’ là gì?

A. Một chuyên gia quản lý cơ sở hạ tầng phần cứng.
B. Một chuyên gia bảo mật dữ liệu.
C. Một chuyên gia phân tích dữ liệu, sử dụng các kỹ thuật thống kê, machine learning và data mining để khám phá các insight và giải quyết các vấn đề kinh doanh.
D. Một chuyên gia phát triển ứng dụng Big Data.

21. Trong Big Data, thuật ngữ ‘machine learning’ thường được sử dụng để làm gì?

A. Quản lý tài nguyên cluster.
B. Phân tích dữ liệu lịch sử.
C. Xây dựng các mô hình dự đoán và khám phá các insight từ dữ liệu.
D. Truyền tải dữ liệu streaming.

22. Sự khác biệt chính giữa ‘batch processing’ và ‘stream processing’ trong Big Data là gì?

A. Batch processing xử lý dữ liệu theo lô lớn, trong khi stream processing xử lý dữ liệu liên tục theo thời gian thực.
B. Batch processing chỉ có thể xử lý dữ liệu có cấu trúc, trong khi stream processing có thể xử lý dữ liệu phi cấu trúc.
C. Batch processing nhanh hơn stream processing.
D. Batch processing dễ triển khai hơn stream processing.

23. Hive được sử dụng để làm gì trong hệ sinh thái Hadoop?

A. Xử lý dữ liệu thời gian thực.
B. Cung cấp một giao diện SQL để truy vấn dữ liệu trong Hadoop.
C. Lưu trữ dữ liệu phi cấu trúc.
D. Quản lý tài nguyên cluster.

24. Công cụ nào sau đây thường được sử dụng để xây dựng các pipeline ETL (Extract, Transform, Load) trong Big Data?

A. HBase.
B. Kafka.
C. Spark.
D. Flume.

25. Vai trò của ‘metadata management’ trong Big Data là gì?

A. Việc quản lý cơ sở hạ tầng phần cứng.
B. Việc quản lý dữ liệu thực tế.
C. Việc quản lý thông tin về dữ liệu (ví dụ: nguồn gốc, định dạng, mô tả), giúp hiểu và sử dụng dữ liệu hiệu quả hơn.
D. Việc quản lý các chính sách bảo mật dữ liệu.

26. Trong ngữ cảnh Big Data, ‘data security’ bao gồm những yếu tố nào?

A. Chỉ việc bảo vệ dữ liệu khỏi mất mát.
B. Chỉ việc mã hóa dữ liệu.
C. Việc bảo vệ dữ liệu khỏi truy cập trái phép, sửa đổi, phá hủy và các rủi ro bảo mật khác.
D. Chỉ việc tuân thủ các quy định về bảo vệ dữ liệu cá nhân.

27. Spark khác biệt so với Hadoop MapReduce như thế nào?

A. Spark chỉ hỗ trợ xử lý batch, trong khi MapReduce hỗ trợ cả batch và real-time.
B. Spark nhanh hơn MapReduce nhờ khả năng xử lý dữ liệu trong bộ nhớ.
C. Spark chỉ có thể xử lý dữ liệu có cấu trúc.
D. Spark phức tạp hơn MapReduce để triển khai và sử dụng.

28. Khi nào nên sử dụng NoSQL thay vì cơ sở dữ liệu quan hệ (RDBMS) trong một dự án Big Data?

A. Khi dữ liệu có cấu trúc rõ ràng và yêu cầu tính nhất quán cao.
B. Khi cần xử lý các giao dịch phức tạp với ACID properties.
C. Khi dữ liệu phi cấu trúc hoặc bán cấu trúc và yêu cầu khả năng mở rộng cao.
D. Khi yêu cầu bảo mật dữ liệu ở mức cao nhất.

29. Trong bối cảnh Big Data, thuật ngữ ‘Volume’ đề cập đến điều gì?

A. Độ chính xác của dữ liệu.
B. Tốc độ xử lý dữ liệu.
C. Sự đa dạng của các loại dữ liệu.
D. Khối lượng dữ liệu được tạo ra và lưu trữ.

30. Công cụ nào sau đây thường được sử dụng để lập lịch và quản lý các workflow Big Data phức tạp?

A. HDFS.
B. Hive.
C. Oozie.
D. HBase.

31. Đặc điểm ‘Velocity’ của Big Data thể hiện điều gì?

A. Độ tin cậy của nguồn dữ liệu.
B. Kích thước tổng thể của dữ liệu.
C. Tốc độ tạo ra và xử lý dữ liệu.
D. Mức độ liên quan của dữ liệu đến vấn đề cần giải quyết.

32. Thuật ngữ ‘Veracity’ trong Big Data liên quan đến khía cạnh nào?

A. Khả năng mở rộng của hệ thống lưu trữ dữ liệu.
B. Tính hợp lệ và độ tin cậy của dữ liệu.
C. Tốc độ truyền tải dữ liệu qua mạng.
D. Mức độ bảo mật của dữ liệu.

33. Trong Big Data, ‘Value’ đề cập đến điều gì?

A. Sự phức tạp của các thuật toán phân tích dữ liệu.
B. Chi phí đầu tư vào cơ sở hạ tầng Big Data.
C. Giá trị kinh tế hoặc thông tin chi tiết có thể thu được từ dữ liệu.
D. Thời gian cần thiết để xử lý một lượng lớn dữ liệu.

34. Thuật ngữ ‘Variety’ trong Big Data mô tả đặc điểm nào của dữ liệu?

A. Tốc độ mà dữ liệu được tạo ra.
B. Sự biến động của dữ liệu theo thời gian.
C. Độ tin cậy và chính xác của dữ liệu.
D. Sự đa dạng của các loại và định dạng dữ liệu khác nhau.

35. Kỹ thuật nào sau đây thường được sử dụng để giảm chiều dữ liệu trong Big Data?

A. Principal Component Analysis (PCA)
B. Data Encryption
C. Data Compression
D. Data Replication

36. NoSQL là gì?

A. Một loại ngôn ngữ lập trình mới.
B. Một hệ quản trị cơ sở dữ liệu quan hệ.
C. Một cách tiếp cận cơ sở dữ liệu phi quan hệ, thường được sử dụng cho Big Data.
D. Một giao thức mạng.

37. YARN trong Hadoop có vai trò gì?

A. Ngôn ngữ truy vấn dữ liệu.
B. Hệ thống quản lý tài nguyên và lập lịch công việc.
C. Công cụ trực quan hóa dữ liệu.
D. Thư viện máy học.

38. Công cụ nào sau đây thường được sử dụng để truy vấn và phân tích dữ liệu trong Hadoop?

A. Java
B. Python
C. SQL
D. Pig

39. Mô hình MapReduce hoạt động như thế nào?

A. Chia nhỏ dữ liệu thành các phần nhỏ hơn, xử lý song song và kết hợp kết quả.
B. Lưu trữ tất cả dữ liệu trên một máy chủ duy nhất.
C. Sử dụng một ngôn ngữ truy vấn duy nhất để xử lý dữ liệu.
D. Tạo bản sao dữ liệu để đảm bảo tính sẵn sàng.

40. Trong lĩnh vực tài chính, Big Data được sử dụng để làm gì?

A. Phát triển phần mềm kế toán.
B. Dự đoán xu hướng thị trường, phát hiện gian lận và quản lý rủi ro.
C. Quản lý chi nhánh ngân hàng.
D. In hóa đơn và báo cáo tài chính.

41. Trong lĩnh vực bán lẻ, Big Data được sử dụng để làm gì?

A. Quản lý kho hàng.
B. Dự đoán nhu cầu khách hàng, tối ưu hóa giá cả và cá nhân hóa trải nghiệm mua sắm.
C. Thiết kế cửa hàng.
D. In phiếu giảm giá.

42. Lambda architecture là gì?

A. Một phương pháp thiết kế hệ thống Big Data kết hợp xử lý batch và real-time.
B. Một ngôn ngữ lập trình cho Big Data.
C. Một công cụ để quản lý cơ sở dữ liệu.
D. Một kỹ thuật mã hóa dữ liệu.

43. Data lineage là gì?

A. Một phương pháp sao lưu dữ liệu.
B. Một cách theo dõi nguồn gốc và quá trình biến đổi của dữ liệu.
C. Một công cụ để nén dữ liệu.
D. Một kỹ thuật phân tích dữ liệu.

44. Data lake là gì?

A. Một loại cơ sở dữ liệu quan hệ.
B. Một kho lưu trữ dữ liệu tập trung, cho phép lưu trữ dữ liệu thô ở nhiều định dạng.
C. Một công cụ để trực quan hóa dữ liệu.
D. Một phương pháp mã hóa dữ liệu.

45. Spark là gì?

A. Một hệ thống quản lý cơ sở dữ liệu quan hệ.
B. Một framework xử lý dữ liệu lớn nhanh chóng và linh hoạt, thường sử dụng bộ nhớ trong.
C. Một ngôn ngữ lập trình cho phân tích dữ liệu.
D. Một công cụ để trực quan hóa dữ liệu.

46. Trong bối cảnh Big Data, ‘real-time processing’ đề cập đến điều gì?

A. Xử lý dữ liệu với độ trễ tối thiểu, thường là trong vài giây hoặc mili giây.
B. Xử lý dữ liệu sau khi đã thu thập được một lượng lớn dữ liệu.
C. Xử lý dữ liệu thủ công.
D. Xử lý dữ liệu trên một máy tính duy nhất.

47. Cơ sở dữ liệu nào sau đây là một ví dụ về cơ sở dữ liệu NoSQL?

A. MySQL
B. PostgreSQL
C. MongoDB
D. Oracle

48. RDD trong Spark là gì?

A. Relational Data Definition
B. Resilient Distributed Dataset
C. Real-time Data Delivery
D. Recursive Data Decomposition

49. Data warehouse khác với data lake như thế nào?

A. Data warehouse lưu trữ dữ liệu thô, trong khi data lake lưu trữ dữ liệu đã được xử lý.
B. Data warehouse lưu trữ dữ liệu đã được xử lý và có cấu trúc, trong khi data lake lưu trữ dữ liệu thô ở nhiều định dạng.
C. Data warehouse chỉ lưu trữ dữ liệu từ một nguồn duy nhất, trong khi data lake có thể lưu trữ dữ liệu từ nhiều nguồn.
D. Data warehouse được sử dụng cho phân tích thời gian thực, trong khi data lake được sử dụng cho phân tích lịch sử.

50. HDFS là viết tắt của cụm từ nào trong hệ sinh thái Hadoop?

A. High-performance Data File System
B. Hadoop Distributed File System
C. Hierarchical Data Filtering System
D. Hybrid Data Fusion System

51. Data governance là gì?

A. Một phương pháp lưu trữ dữ liệu.
B. Một tập hợp các chính sách và quy trình để quản lý dữ liệu một cách hiệu quả và an toàn.
C. Một công cụ để trực quan hóa dữ liệu.
D. Một kỹ thuật mã hóa dữ liệu.

52. CAP theorem trong bối cảnh cơ sở dữ liệu phân tán đề cập đến những yếu tố nào?

A. Consistency, Availability, Partition Tolerance.
B. Capacity, Agility, Performance.
C. Cost, Accuracy, Privacy.
D. Complexity, Adaptability, Reliability.

53. Trong bối cảnh Big Data, thuật ngữ ‘data mining’ đề cập đến điều gì?

A. Quá trình thu thập dữ liệu từ nhiều nguồn khác nhau.
B. Quá trình làm sạch và chuẩn hóa dữ liệu.
C. Quá trình khám phá các mẫu và thông tin hữu ích từ lượng lớn dữ liệu.
D. Quá trình bảo mật dữ liệu khỏi truy cập trái phép.

54. Machine learning có vai trò gì trong Big Data?

A. Lưu trữ dữ liệu một cách hiệu quả.
B. Truy vấn dữ liệu nhanh chóng.
C. Phân tích dữ liệu để tìm ra các mẫu và dự đoán.
D. Bảo vệ dữ liệu khỏi truy cập trái phép.

55. Trong Big Data, ETL là viết tắt của cụm từ nào?

A. Extract, Transform, Load
B. Evaluate, Test, Learn
C. Encrypt, Transfer, Locate
D. Enter, Track, Log

56. Framework nào sau đây thường được sử dụng để xử lý Big Data phân tán?

A. MySQL
B. Hadoop
C. Microsoft Excel
D. Adobe Photoshop

57. Trong ngữ cảnh Big Data, ‘Volume’ đề cập đến điều gì?

A. Sự đa dạng của các loại dữ liệu khác nhau.
B. Tốc độ mà dữ liệu được tạo ra và xử lý.
C. Độ chính xác và tin cậy của dữ liệu.
D. Số lượng lớn dữ liệu được tạo ra và lưu trữ.

58. Ứng dụng nào sau đây là một ví dụ về việc sử dụng Big Data trong lĩnh vực y tế?

A. Dự đoán dịch bệnh và phân tích hiệu quả điều trị.
B. Quản lý hồ sơ bệnh nhân điện tử.
C. Đặt lịch hẹn khám bệnh trực tuyến.
D. Thanh toán bảo hiểm y tế.

59. Những kỹ năng nào quan trọng đối với một chuyên gia Big Data?

A. Kỹ năng bán hàng.
B. Kỹ năng nấu ăn.
C. Kỹ năng phân tích dữ liệu, lập trình, quản lý cơ sở dữ liệu và hiểu biết về các công cụ Big Data.
D. Kỹ năng thiết kế đồ họa.

60. Những thách thức nào thường gặp phải khi triển khai các dự án Big Data?

A. Chi phí thấp và dễ dàng tìm kiếm nhân tài.
B. Đảm bảo chất lượng dữ liệu, bảo mật và tuân thủ quy định.
C. Dễ dàng tích hợp với các hệ thống hiện có.
D. Không cần kỹ năng chuyên môn.

61. HDFS (Hadoop Distributed File System) được thiết kế để làm gì?

A. Quản lý tài nguyên cluster
B. Lưu trữ và truy cập dữ liệu lớn một cách phân tán
C. Thực hiện các phép tính toán song song
D. Truy vấn dữ liệu SQL

62. Trong MapReduce, chức năng ‘reducer’ có vai trò gì?

A. Chia nhỏ dữ liệu đầu vào
B. Ánh xạ dữ liệu sang các cặp key-value
C. Tổng hợp và xử lý dữ liệu từ các mapper
D. Lọc dữ liệu không hợp lệ

63. Công cụ nào sau đây hỗ trợ xử lý đồ thị (graph processing) trên Big Data?

A. Hadoop MapReduce
B. Apache Spark GraphX
C. Apache Hive
D. Apache Pig

64. Trong kiến trúc Kappa, làm thế nào để xử lý lại dữ liệu lịch sử?

A. Sử dụng một batch layer riêng biệt
B. Tải lại dữ liệu vào data warehouse
C. Xử lý lại toàn bộ luồng dữ liệu từ đầu
D. Không thể xử lý lại dữ liệu lịch sử

65. Thuật ngữ ‘data governance’ đề cập đến điều gì?

A. Quá trình di chuyển dữ liệu giữa các hệ thống
B. Tập hợp các chính sách, quy trình và tiêu chuẩn để đảm bảo chất lượng, tính toàn vẹn và bảo mật của dữ liệu
C. Kỹ thuật nén dữ liệu
D. Phương pháp trực quan hóa dữ liệu

66. Công cụ nào sau đây thường được sử dụng để xây dựng các dashboard và trực quan hóa dữ liệu từ các hệ thống Big Data?

A. Sqoop
B. Flume
C. Tableau
D. Mahout

67. Trong kiến trúc Lambda, lớp (layer) nào chịu trách nhiệm xử lý dữ liệu theo thời gian thực (real-time)?

A. Batch Layer
B. Serving Layer
C. Speed Layer
D. Storage Layer

68. Công cụ nào sau đây cung cấp khả năng xử lý luồng dữ liệu (stream processing) trong thời gian thực với độ trễ thấp?

A. Hadoop MapReduce
B. Apache Spark Streaming
C. Apache Hive
D. Apache Pig

69. Trong ngữ cảnh của Spark, ‘RDD’ là viết tắt của cụm từ nào?

A. Real-time Data Distribution
B. Resilient Distributed Dataset
C. Reliable Data Delivery
D. Rapid Data Deployment

70. Khái niệm ‘data lake’ khác với ‘data warehouse’ như thế nào?

A. Data lake lưu trữ dữ liệu đã qua xử lý, data warehouse lưu trữ dữ liệu thô.
B. Data lake lưu trữ dữ liệu có cấu trúc, data warehouse lưu trữ dữ liệu phi cấu trúc.
C. Data lake lưu trữ dữ liệu thô, data warehouse lưu trữ dữ liệu đã qua xử lý và có cấu trúc.
D. Data lake chỉ dành cho dữ liệu lịch sử, data warehouse cho dữ liệu hiện tại.

71. Công cụ nào sau đây được sử dụng để thu thập, xử lý và phân tích dữ liệu nhật ký (log data) trong thời gian thực?

A. Sqoop
B. Flume
C. Hive
D. Pig

72. Thuật ngữ ‘CAP theorem’ trong Big Data đề cập đến những thuộc tính nào?

A. Consistency, Availability, Partition Tolerance
B. Capacity, Agility, Performance
C. Cost, Accuracy, Privacy
D. Complexity, Adaptability, Portability

73. Thuật ngữ ‘data lineage’ đề cập đến điều gì?

A. Quá trình chuyển đổi dữ liệu từ định dạng này sang định dạng khác
B. Nguồn gốc và lịch sử của dữ liệu, bao gồm các biến đổi và di chuyển mà dữ liệu đã trải qua
C. Kỹ thuật làm sạch dữ liệu
D. Phương pháp kiểm soát truy cập dữ liệu

74. Trong ngữ cảnh Big Data, ‘data virtualization’ là gì?

A. Sao chép dữ liệu vào nhiều hệ thống khác nhau
B. Tạo ra một lớp trừu tượng để truy cập dữ liệu từ nhiều nguồn khác nhau mà không cần di chuyển dữ liệu
C. Mã hóa dữ liệu để bảo mật
D. Nén dữ liệu để tiết kiệm không gian lưu trữ

75. Thuật ngữ ‘NoSQL’ đại diện cho điều gì?

A. Only SQL
B. No Structure Query Language
C. Not Only SQL
D. New SQL

76. Công cụ nào sau đây cho phép truy vấn dữ liệu trong Hadoop sử dụng cú pháp SQL?

A. Pig
B. Hive
C. HBase
D. Spark

77. Trong kiến trúc Big Data, ‘change data capture (CDC)’ dùng để chỉ điều gì?

A. Quy trình sao lưu và phục hồi dữ liệu
B. Phương pháp theo dõi và ghi lại các thay đổi dữ liệu trong cơ sở dữ liệu nguồn và chuyển chúng đến hệ thống đích
C. Kỹ thuật nén dữ liệu để giảm dung lượng lưu trữ
D. Quy trình kiểm soát truy cập dữ liệu

78. Công cụ nào sau đây thường được sử dụng để thu thập (ingest) dữ liệu từ nhiều nguồn khác nhau vào Hadoop?

A. Hive
B. Pig
C. Sqoop
D. Mahout

79. Kỹ thuật ‘Bloom filter’ được sử dụng để làm gì trong các hệ thống Big Data?

A. Nén dữ liệu
B. Lọc dữ liệu trùng lặp
C. Kiểm tra xem một phần tử có thể thuộc về một tập hợp hay không
D. Sắp xếp dữ liệu

80. Định dạng file nào sau đây được tối ưu hóa cho việc lưu trữ và xử lý dữ liệu dạng cột (columnar data storage) trong Big Data?

A. JSON
B. CSV
C. Parquet
D. XML

81. Kafka được sử dụng chủ yếu cho mục đích gì trong các ứng dụng Big Data?

A. Lưu trữ dữ liệu lịch sử
B. Xử lý dữ liệu theo lô (batch processing)
C. Truyền tải dữ liệu theo thời gian thực (real-time data streaming)
D. Truy vấn dữ liệu tương tác

82. YARN (Yet Another Resource Negotiator) có vai trò gì trong Hadoop?

A. Lưu trữ dữ liệu
B. Quản lý tài nguyên cluster và lập lịch công việc
C. Truy vấn dữ liệu SQL
D. Xử lý dữ liệu theo thời gian thực

83. Trong Spark, ‘transformation’ khác với ‘action’ như thế nào?

A. Transformation thực hiện tính toán ngay lập tức, action thực hiện tính toán trì hoãn.
B. Transformation tạo ra RDD mới, action trả về một giá trị.
C. Transformation chỉ áp dụng cho dữ liệu có cấu trúc, action áp dụng cho mọi loại dữ liệu.
D. Transformation chỉ chạy trên một máy, action chạy trên nhiều máy.

84. Thuật ngữ ‘lambda architecture’ trong Big Data dùng để chỉ điều gì?

A. Một phương pháp lưu trữ dữ liệu trên đám mây
B. Một kiến trúc xử lý dữ liệu kết hợp cả batch processing và stream processing
C. Một ngôn ngữ lập trình cho Big Data
D. Một kỹ thuật mã hóa dữ liệu

85. HBase là loại cơ sở dữ liệu nào?

A. Cơ sở dữ liệu quan hệ
B. Cơ sở dữ liệu hướng cột (column-oriented database)
C. Cơ sở dữ liệu tài liệu (document database)
D. Cơ sở dữ liệu đồ thị (graph database)

86. Công cụ nào sau đây cung cấp khả năng truy vấn dữ liệu tương tác với độ trễ thấp trên Hadoop?

A. Hive
B. Pig
C. Impala
D. Mahout

87. Công cụ nào sau đây thường được sử dụng để lập lịch và quản lý công việc (job scheduling) trong Hadoop?

A. Spark
B. Kafka
C. Oozie
D. HBase

88. Công cụ nào sau đây thường được sử dụng để xây dựng các ứng dụng machine learning trên Hadoop?

A. Sqoop
B. Flume
C. Mahout
D. Kafka

89. Kỹ thuật ‘sharding’ được sử dụng để làm gì trong các hệ thống Big Data?

A. Nén dữ liệu
B. Phân vùng dữ liệu trên nhiều máy chủ để tăng khả năng mở rộng và hiệu suất
C. Mã hóa dữ liệu
D. Sao lưu dữ liệu

90. Trong ngữ cảnh của Big Data, ‘data wrangling’ là gì?

A. Quá trình thu thập dữ liệu từ nhiều nguồn khác nhau
B. Quá trình làm sạch, chuyển đổi và chuẩn bị dữ liệu để phân tích
C. Quá trình lưu trữ dữ liệu trong data lake
D. Quá trình trực quan hóa dữ liệu

91. Trong Big Data, ‘Volume’ đề cập đến khía cạnh nào của dữ liệu?

A. Độ tin cậy của dữ liệu.
B. Kích thước của dữ liệu.
C. Tốc độ xử lý dữ liệu.
D. Sự đa dạng của dữ liệu.

92. Trong kiến trúc Lambda, lớp ‘speed layer’ có vai trò gì?

A. Lưu trữ dữ liệu lịch sử.
B. Xử lý dữ liệu theo lô.
C. Xử lý dữ liệu thời gian thực.
D. Trực quan hóa dữ liệu.

93. Trong ngữ cảnh của Big Data, thuật ngữ ‘Velocity’ đề cập đến điều gì?

A. Độ chính xác của dữ liệu.
B. Tốc độ tạo và xử lý dữ liệu.
C. Sự đa dạng của các nguồn dữ liệu.
D. Kích thước của tập dữ liệu.

94. Công cụ nào sau đây cung cấp khả năng trực quan hóa dữ liệu mạnh mẽ và tương tác trong Big Data?

A. Java.
B. Python.
C. Tableau.
D. C++.

95. Công cụ nào sau đây được sử dụng để quản lý và điều phối các tác vụ trong Hadoop?

A. ZooKeeper.
B. Oozie.
C. Flume.
D. Sqoop.

96. Công cụ nào sau đây thường được sử dụng để thực hiện các tác vụ Machine Learning trên dữ liệu lớn?

A. Microsoft Excel.
B. TensorFlow.
C. Adobe Photoshop.
D. Microsoft Word.

97. Công cụ nào sau đây thường được sử dụng để truy vấn dữ liệu trong Hadoop sử dụng cú pháp SQL?

A. Java.
B. Python.
C. Hive.
D. C++.

98. Công cụ nào sau đây được sử dụng để chuyển dữ liệu giữa Hadoop và các cơ sở dữ liệu quan hệ?

A. Flume.
B. Sqoop.
C. Kafka.
D. Oozie.

99. Trong Big Data, thuật ngữ ‘Data Warehouse’ đề cập đến điều gì?

A. Một kho lưu trữ dữ liệu phi cấu trúc.
B. Một kho lưu trữ dữ liệu có cấu trúc, được thiết kế cho phân tích và báo cáo.
C. Một hệ thống quản lý cơ sở dữ liệu NoSQL.
D. Một công cụ thu thập dữ liệu.

100. Flume được sử dụng để làm gì trong hệ sinh thái Hadoop?

A. Lưu trữ dữ liệu.
B. Thu thập và chuyển dữ liệu log từ nhiều nguồn vào Hadoop.
C. Truy vấn dữ liệu SQL.
D. Trực quan hóa dữ liệu.

101. Hive là gì trong hệ sinh thái Hadoop?

A. Một ngôn ngữ lập trình.
B. Một hệ thống kho dữ liệu cho phép truy vấn và phân tích dữ liệu lớn.
C. Một công cụ để thu thập dữ liệu.
D. Một hệ thống quản lý tài nguyên.

102. MapReduce là gì?

A. Một ngôn ngữ truy vấn dữ liệu.
B. Một framework lập trình để xử lý song song các tập dữ liệu lớn.
C. Một hệ quản trị cơ sở dữ liệu quan hệ.
D. Một công cụ trực quan hóa dữ liệu.

103. Công cụ nào sau đây thường được sử dụng để xây dựng các pipeline ETL (Extract, Transform, Load) trong Big Data?

A. TensorFlow.
B. Kafka.
C. Informatica PowerCenter.
D. Docker.

104. Trong ngữ cảnh của Big Data, thuật ngữ ‘Data Mining’ đề cập đến điều gì?

A. Lưu trữ dữ liệu.
B. Thu thập dữ liệu.
C. Khám phá các mẫu và thông tin hữu ích từ dữ liệu lớn.
D. Trực quan hóa dữ liệu.

105. Apache Kafka được sử dụng chủ yếu cho mục đích gì trong Big Data?

A. Lưu trữ dữ liệu lâu dài.
B. Xử lý dữ liệu hàng loạt.
C. Truyền tải dữ liệu thời gian thực và xây dựng các pipeline dữ liệu.
D. Truy vấn dữ liệu SQL.

106. Trong kiến trúc Kappa, dữ liệu được xử lý như thế nào?

A. Dữ liệu được xử lý theo lô và thời gian thực.
B. Dữ liệu chỉ được xử lý theo lô.
C. Dữ liệu chỉ được xử lý thời gian thực.
D. Dữ liệu không được xử lý.

107. Ưu điểm chính của việc sử dụng Apache Cassandra trong Big Data là gì?

A. Hỗ trợ tốt cho các giao dịch ACID.
B. Khả năng mở rộng cao và khả năng chịu lỗi tốt.
C. Tuân thủ nghiêm ngặt các tiêu chuẩn SQL.
D. Chi phí thấp hơn.

108. YARN là gì trong hệ sinh thái Hadoop?

A. Một ngôn ngữ truy vấn dữ liệu.
B. Một hệ thống quản lý tài nguyên cluster.
C. Một công cụ trực quan hóa dữ liệu.
D. Một hệ thống lưu trữ dữ liệu.

109. Apache HBase là gì?

A. Một ngôn ngữ truy vấn dữ liệu.
B. Một cơ sở dữ liệu NoSQL phân tán, cột-định hướng được xây dựng trên Hadoop.
C. Một công cụ trực quan hóa dữ liệu.
D. Một hệ thống quản lý tài nguyên.

110. Công cụ nào sau đây thường được sử dụng để xây dựng các ứng dụng Machine Learning có khả năng mở rộng trên Spark?

A. MLlib.
B. TensorFlow.
C. Keras.
D. PyTorch.

111. Công cụ nào sau đây thường được sử dụng để xử lý và phân tích dữ liệu trong Hadoop?

A. MySQL.
B. Spark.
C. Microsoft Excel.
D. Adobe Photoshop.

112. Trong Big Data, ‘Value’ đề cập đến khía cạnh nào của dữ liệu?

A. Độ lớn của dữ liệu.
B. Tốc độ tạo dữ liệu.
C. Giá trị và thông tin hữu ích được trích xuất từ dữ liệu.
D. Độ tin cậy của dữ liệu.

113. Ưu điểm chính của việc sử dụng cơ sở dữ liệu NoSQL so với cơ sở dữ liệu quan hệ truyền thống trong Big Data là gì?

A. Hỗ trợ tốt hơn cho các giao dịch ACID.
B. Khả năng mở rộng và linh hoạt tốt hơn để xử lý dữ liệu phi cấu trúc.
C. Tuân thủ nghiêm ngặt các tiêu chuẩn SQL.
D. Chi phí thấp hơn.

114. Trong Big Data, ‘Veracity’ đề cập đến điều gì?

A. Độ lớn của dữ liệu.
B. Tốc độ tạo dữ liệu.
C. Độ tin cậy và chính xác của dữ liệu.
D. Sự đa dạng của dữ liệu.

115. Apache Spark Streaming được sử dụng để làm gì?

A. Lưu trữ dữ liệu lớn.
B. Xử lý dữ liệu thời gian thực.
C. Truy vấn dữ liệu SQL.
D. Trực quan hóa dữ liệu.

116. Trong ngữ cảnh của Big Data, thuật ngữ ‘Data Lake’ đề cập đến điều gì?

A. Một kho lưu trữ dữ liệu có cấu trúc cao.
B. Một kho lưu trữ dữ liệu phi cấu trúc và bán cấu trúc ở định dạng gốc.
C. Một hệ thống quản lý cơ sở dữ liệu quan hệ.
D. Một công cụ trực quan hóa dữ liệu.

117. Công cụ nào sau đây được sử dụng để thu thập, xử lý và phân tích dữ liệu log trong thời gian thực?

A. Tableau.
B. Splunk.
C. R.
D. SAS.

118. NoSQL là viết tắt của cụm từ nào?

A. No Structure Query Language.
B. Not Only SQL.
C. New Object SQL.
D. Non Operational SQL.

119. Hadoop Distributed File System (HDFS) được thiết kế chủ yếu để làm gì?

A. Xử lý dữ liệu thời gian thực.
B. Lưu trữ và truy cập dữ liệu lớn trên các cụm máy tính.
C. Truy vấn dữ liệu SQL.
D. Trực quan hóa dữ liệu.

120. Apache Pig là gì?

A. Một ngôn ngữ lập trình.
B. Một nền tảng cấp cao để phát triển các chương trình MapReduce trên Hadoop.
C. Một hệ thống quản lý cơ sở dữ liệu quan hệ.
D. Một công cụ trực quan hóa dữ liệu.

121. Trong Big Data, ‘Velocity’ đề cập đến yếu tố nào?

A. Độ tin cậy của nguồn dữ liệu.
B. Tốc độ tạo ra và xử lý dữ liệu.
C. Mức độ phức tạp của các thuật toán phân tích.
D. Kích thước tối đa của một tập dữ liệu.

122. Yếu tố nào sau đây KHÔNG phải là một thành phần chính của hệ sinh thái Hadoop?

A. HDFS (Hadoop Distributed File System)
B. MapReduce
C. YARN (Yet Another Resource Negotiator)
D. Microsoft Word

123. Trong ngữ cảnh Big Data, ‘Variety’ đề cập đến yếu tố nào?

A. Tốc độ truy cập dữ liệu.
B. Khả năng mở rộng của hệ thống.
C. Sự đa dạng của các loại dữ liệu (có cấu trúc, bán cấu trúc, phi cấu trúc).
D. Độ tin cậy của dữ liệu.

124. Công cụ nào sau đây được sử dụng để lập lịch và quản lý các công việc (jobs) trong Hadoop?

A. Microsoft Project
B. Apache Oozie
C. Trello
D. Slack

125. Một trong những lợi ích chính của việc sử dụng điện toán đám mây (cloud computing) cho Big Data là gì?

A. Giảm chi phí phần cứng và tăng tính linh hoạt.
B. Tăng tốc độ truy cập internet.
C. Giảm số lượng nhân viên cần thiết.
D. Đơn giản hóa việc mã hóa dữ liệu.

126. Data governance (quản trị dữ liệu) đóng vai trò gì trong Big Data?

A. Tăng tốc độ xử lý dữ liệu.
B. Đảm bảo chất lượng, tính nhất quán và tuân thủ các quy định về dữ liệu.
C. Giảm chi phí lưu trữ dữ liệu.
D. Đơn giản hóa việc trực quan hóa dữ liệu.

127. Công nghệ nào sau đây thường được sử dụng để xử lý và phân tích dữ liệu lớn trong môi trường phân tán?

A. Microsoft Excel
B. Hadoop
C. Microsoft Access
D. Adobe Photoshop

128. Trong ngữ cảnh Big Data, ‘Value’ đề cập đến yếu tố nào?

A. Kích thước của dữ liệu.
B. Giá trị kinh tế hoặc thông tin hữu ích có thể thu được từ dữ liệu.
C. Tốc độ xử lý dữ liệu.
D. Sự đa dạng của dữ liệu.

129. Trong ngữ cảnh Big Data, thuật ngữ ‘Data Warehouse’ đề cập đến điều gì?

A. Một hệ thống lưu trữ dữ liệu tạm thời.
B. Một kho lưu trữ dữ liệu tập trung, được thiết kế để hỗ trợ các quyết định kinh doanh.
C. Một công cụ trực quan hóa dữ liệu.
D. Một phương pháp mã hóa dữ liệu.

130. Machine learning đóng vai trò gì trong Big Data analytics?

A. Giảm kích thước dữ liệu.
B. Tự động hóa quá trình phân tích và dự đoán từ dữ liệu.
C. Tăng tốc độ truy cập dữ liệu.
D. Đảm bảo tính bảo mật của dữ liệu.

131. Công nghệ nào sau đây thường được sử dụng để xử lý luồng dữ liệu (data streaming) trong thời gian thực?

A. Hadoop MapReduce
B. Apache Spark Streaming hoặc Apache Kafka
C. Microsoft Excel
D. Adobe Photoshop

132. Một trong những thách thức lớn nhất liên quan đến bảo mật dữ liệu trong Big Data là gì?

A. Chi phí phần cứng cao.
B. Sự phức tạp của việc bảo vệ dữ liệu phân tán trên nhiều hệ thống.
C. Thiếu nhân viên có kỹ năng phân tích dữ liệu.
D. Khả năng tương thích với các hệ thống cũ.

133. Thuật ngữ ‘Data Lake’ trong Big Data đề cập đến điều gì?

A. Một hệ thống quản lý cơ sở dữ liệu quan hệ truyền thống.
B. Một kho lưu trữ dữ liệu tập trung, chứa dữ liệu thô ở định dạng gốc của nó.
C. Một phương pháp mã hóa dữ liệu.
D. Một kỹ thuật nén dữ liệu.

134. NoSQL database thường được sử dụng trong Big Data để giải quyết vấn đề gì?

A. Xử lý các giao dịch tài chính phức tạp.
B. Quản lý dữ liệu có cấu trúc cố định.
C. Lưu trữ và truy xuất dữ liệu phi cấu trúc hoặc bán cấu trúc với hiệu suất cao.
D. Thay thế hoàn toàn các hệ quản trị cơ sở dữ liệu quan hệ.

135. Công cụ nào sau đây thường được sử dụng để trực quan hóa dữ liệu lớn?

A. Microsoft Word
B. Tableau hoặc Power BI
C. Notepad
D. Command Prompt

136. Trong kiến trúc Hadoop, NodeManager có vai trò gì?

A. Quản lý tài nguyên và lập lịch công việc trên các node dữ liệu.
B. Lưu trữ siêu dữ liệu về các file trong hệ thống.
C. Xử lý các truy vấn SQL.
D. Trực quan hóa dữ liệu.

137. Yếu tố ‘Veracity’ trong Big Data đề cập đến điều gì?

A. Sự biến đổi của dữ liệu theo thời gian.
B. Độ chính xác và tin cậy của dữ liệu.
C. Khả năng mở rộng của hệ thống lưu trữ.
D. Sự đa dạng của các nguồn dữ liệu.

138. Spark là gì và nó được sử dụng để làm gì trong Big Data?

A. Một ngôn ngữ lập trình mới.
B. Một framework xử lý dữ liệu nhanh chóng, thường được sử dụng cho machine learning và xử lý đồ thị.
C. Một hệ điều hành.
D. Một công cụ quản lý dự án.

139. Trong ngữ cảnh Big Data, thuật ngữ ‘Volume’ đề cập đến yếu tố nào?

A. Độ chính xác của dữ liệu.
B. Sự đa dạng của các loại dữ liệu.
C. Tốc độ tạo ra và xử lý dữ liệu.
D. Khối lượng dữ liệu được tạo ra và lưu trữ.

140. Thuật ngữ ‘Data Cleansing’ trong Big Data đề cập đến điều gì?

A. Việc mã hóa dữ liệu.
B. Quá trình loại bỏ hoặc sửa chữa dữ liệu không chính xác, không đầy đủ hoặc không liên quan.
C. Việc nén dữ liệu.
D. Việc phân tích dữ liệu.

141. Lợi ích chính của việc sử dụng Big Data analytics trong lĩnh vực y tế là gì?

A. Giảm chi phí phần cứng.
B. Cải thiện độ chính xác của chẩn đoán và điều trị.
C. Tăng tốc độ truy cập internet.
D. Giảm số lượng bác sĩ cần thiết.

142. Trong kiến trúc Lambda, lớp (layer) nào chịu trách nhiệm xử lý dữ liệu theo thời gian thực?

A. Batch Layer
B. Serving Layer
C. Speed Layer
D. Storage Layer

143. Công cụ nào sau đây thường được sử dụng để truy vấn và phân tích dữ liệu lưu trữ trong Hadoop?

A. Java
B. Python
C. SQL
D. Pig hoặc Hive

144. Chọn phát biểu SAI về Big Data:

A. Big Data có thể giúp các doanh nghiệp đưa ra quyết định tốt hơn.
B. Big Data chỉ liên quan đến dữ liệu có cấu trúc.
C. Big Data đòi hỏi các công cụ và kỹ thuật xử lý dữ liệu đặc biệt.
D. Big Data có thể được sử dụng trong nhiều lĩnh vực khác nhau.

145. Thách thức lớn nhất trong việc quản lý dữ liệu lớn (Big Data) là gì?

A. Duy trì chất lượng dữ liệu và đảm bảo tính bảo mật.
B. Tìm kiếm nhân viên có kỹ năng phân tích dữ liệu.
C. Chi phí đầu tư vào phần cứng.
D. Sự phức tạp của việc triển khai các thuật toán.

146. Trong ngữ cảnh Big Data, ETL là viết tắt của cụm từ nào?

A. Extract, Transform, Load
B. Evaluate, Translate, Learn
C. Encrypt, Transfer, Log
D. Execute, Test, Launch

147. Trong Big Data, thuật ngữ ‘Data Mining’ đề cập đến điều gì?

A. Việc thu thập dữ liệu từ các nguồn khác nhau.
B. Quá trình khám phá các mẫu, xu hướng và thông tin hữu ích từ các tập dữ liệu lớn.
C. Việc bảo mật dữ liệu.
D. Việc nén dữ liệu để tiết kiệm không gian lưu trữ.

148. Ứng dụng nào sau đây KHÔNG phải là một ứng dụng phổ biến của Big Data?

A. Phân tích rủi ro tài chính
B. Dự đoán thời tiết
C. Tối ưu hóa chuỗi cung ứng
D. Soạn thảo văn bản

149. Trong Big Data, thuật ngữ ‘Schema on Read’ có nghĩa là gì?

A. Cấu trúc dữ liệu được xác định trước khi dữ liệu được ghi vào hệ thống.
B. Cấu trúc dữ liệu được xác định khi dữ liệu được đọc từ hệ thống.
C. Dữ liệu được mã hóa trước khi được ghi vào hệ thống.
D. Dữ liệu được nén trước khi được ghi vào hệ thống.

150. Lĩnh vực nào sau đây thường sử dụng phân tích Big Data để phát hiện gian lận?

A. Nông nghiệp
B. Tài chính và bảo hiểm
C. Giáo dục
D. Giao thông vận tải

Số câu đã làm: 0/0
Thời gian còn lại: 00:00:00
  • Đã làm
  • Chưa làm
  • Cần kiểm tra lại
© 2026 Trending New 24h • Tạo ra với GeneratePress

Bạn ơi!!! Để xem được kết quả, bạn vui lòng làm nhiệm vụ nhỏ xíu này nha

HƯỚNG DẪN TÌM MẬT KHẨU

Đang tải nhiệm vụ...

Bước 1: Mở tab mới và truy cập Google.com. Sau đó tìm kiếm chính xác từ khóa sau:

Bước 2: Tìm và click vào kết quả có trang web giống như hình ảnh dưới đây:

Hướng dẫn tìm kiếm

Bước 3: Kéo xuống cuối trang đó để tìm mật khẩu như hình ảnh hướng dẫn:

Hướng dẫn lấy mật khẩu

Nếu tìm không thấy mã bạn có thể Đổi nhiệm vụ để lấy mã khác nhé.