Lexical Analysis

Định nghĩa Lexical Analysis là gì?

Lexical AnalysisPhân tích từ vựng. Đây là nghĩa tiếng Việt của thuật ngữ Lexical Analysis - một thuật ngữ thuộc nhóm Technology Terms - Công nghệ thông tin.

Độ phổ biến(Factor rating): 5/10

Phân tích từ vựng là một khái niệm được áp dụng cho máy tính khoa học theo một cách rất giống nhau mà nó được áp dụng cho ngôn ngữ học. Bản chất, phương tiện phân tích từ vựng nhóm một dòng chữ hoặc âm thanh vào bộ đơn vị đại diện cho các cú pháp có ý nghĩa. Trong ngôn ngữ học, nó được gọi là phân tích cú pháp, và khoa học máy tính, nó có thể được gọi là phân tích cú pháp hoặc tokenizing.

Xem thêm: Thuật ngữ công nghệ A-Z

Giải thích ý nghĩa

Ý tưởng về phân tích từ vựng khoa học máy tính là phá vỡ phân tích từ vựng suối xuống “lexemes”, nơi một mã thông báo đại diện đơn vị cơ bản của ý nghĩa. Token được kết hợp với nhau theo một cách như vậy mà biên dịch ngôn ngữ phải quay trở lại và cô lập chúng để thực hiện quyền máy tính hướng dẫn. Về cơ bản, cả con người và máy tính làm từ vựng phân tích, nhưng máy tính làm điều đó khác nhau, và trong một cách nhiều kỹ thuật hơn. Cách mà các máy tính làm phân tích từ vựng không cần phải được minh bạch để con người - nó chỉ có thể được lập trình vào hệ thống máy tính. Các chương trình làm phân tích từ vựng khoa học máy tính thường được gọi là lexers, tokenizers hoặc máy quét.

What is the Lexical Analysis? - Definition

Lexical analysis is a concept that is applied to computer science in a very similar way that it is applied to linguistics. Essentially, lexical analysis means grouping a stream of letters or sounds into sets of units that represent meaningful syntax. In linguistics, it is called parsing, and in computer science, it can be called parsing or tokenizing.

Understanding the Lexical Analysis

The idea of lexical analysis in computer science is that lexical analysis breaks streams down into “lexemes” where a token represents the basic unit of meaning. Tokens are strung together in such a way that the language compiler must go back and isolate them to implement the right computing instructions. Basically, both humans and computers do lexical analysis, but computers do it differently, and in a much more technical way. The way that computers do lexical analysis does not need to be transparent to humans – it just has to be programmed into the computing system. Programs that do lexical analysis in computer science are often called lexers, tokenizers or scanners.

Thuật ngữ liên quan

  • Lexeme
  • Lexical Scoping
  • Parse
  • Parser
  • Token
  • Alan Turing
  • Boolean Logic
  • Computer Science
  • Computer System
  • Deterministic System

Source: ? Technology Dictionary - Filegi - Techtopedia - Techterm

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *