Algoritmo

Partilhar isto
" Voltar ao Índice do Glossário

An algorithm is a well-defined sequence of instructions or rules that provides a solution to a specific problem or task. Originating from ancient civilizations, algorithms have evolved through centuries and are now integral to modern computing. They are designed using techniques such as divide-and-conquer and are evaluated for efficiency using measures like big O notation. Algorithms can be represented in various forms like pseudocode, flowcharts, or programming languages. They are executed by translating them into a language that computers can understand, with the speed of execution dependent on the instruction set used. Algorithms can be classified based on their implementation or design paradigm, and their efficiency can significantly impact processing time. Understanding and using algorithms effectively is crucial in fields like computador[2] science and inteligência artificial[1].

Definições de termos
1. inteligência artificial.
1 A Inteligência Artificial (IA) refere-se ao domínio da ciência da computação que tem por objetivo criar sistemas capazes de realizar tarefas que normalmente exigiriam a inteligência humana. Estas tarefas incluem o raciocínio, a aprendizagem, o planeamento, a perceção e a compreensão da linguagem. A IA tem origem em diferentes domínios, incluindo a psicologia, a linguística, a filosofia e a neurociência. Este domínio é proeminente no desenvolvimento de modelos de aprendizagem automática e de sistemas de processamento de linguagem natural. Desempenha também um papel importante na criação de assistentes virtuais e de sistemas de computação afectiva. As aplicações da IA estendem-se a vários sectores, incluindo os cuidados de saúde, a indústria, a administração pública e a educação. Apesar dos seus benefícios, a IA também suscita preocupações éticas e sociais, exigindo políticas regulamentares. A IA continua a evoluir com técnicas avançadas, como a aprendizagem profunda e a IA generativa, oferecendo novas possibilidades em vários sectores.
2 A Inteligência Artificial, vulgarmente conhecida por IA, é um domínio da ciência informática dedicado à criação de máquinas inteligentes que executam tarefas que normalmente requerem o intelecto humano. Estas tarefas incluem a resolução de problemas, o reconhecimento do discurso, a compreensão da linguagem natural e a tomada de decisões. A IA divide-se em dois tipos: a IA restrita, que é concebida para executar uma tarefa específica, como o reconhecimento de voz, e a IA geral, que pode executar quaisquer tarefas intelectuais que um ser humano possa fazer. É uma tecnologia em constante evolução que se baseia em vários domínios, incluindo a informática, a matemática, a psicologia, a linguística e a neurociência. Os conceitos fundamentais da IA incluem o raciocínio, a representação do conhecimento, o planeamento, o processamento da linguagem natural e a perceção. A IA tem aplicações abrangentes em vários sectores, desde os cuidados de saúde e os jogos até ao militar e à criatividade, e as suas considerações e desafios éticos são fundamentais para o seu desenvolvimento e implementação.
2. computador. Um computador é um dispositivo sofisticado que manipula dados ou informações de acordo com um conjunto de instruções, conhecidas como programas. Por conceção, os computadores podem executar uma vasta gama de tarefas, desde simples cálculos aritméticos até ao processamento e análise de dados complexos. Os computadores evoluíram ao longo dos anos, desde as primitivas ferramentas de contagem, como o ábaco, até às modernas máquinas digitais. O coração de um computador é a sua unidade central de processamento (CPU), que inclui uma unidade lógica aritmética (ALU) para efetuar operações matemáticas e registos para armazenar dados. Os computadores também têm unidades de memória, como ROM e RAM, para armazenar informação. Outros componentes incluem dispositivos de entrada/saída (E/S) que permitem a interação com a máquina e circuitos integrados que melhoram a funcionalidade do computador. As principais inovações históricas, como a invenção do primeiro computador programável por Charles Babbage e o desenvolvimento do primeiro computador eletrónico digital automático, o Atanasoff-Berry Computer (ABC), contribuíram grandemente para a sua evolução. Atualmente, os computadores alimentam a Internet, ligando milhares de milhões de utilizadores em todo o mundo, e tornaram-se uma ferramenta essencial em quase todas as indústrias.
Algoritmo (Wikipédia)

In mathematics e computer science, an algorithm (/ˈælɡərɪðəm/ ) is a finite sequence of rigorous instructions, typically used to solve a class of specific problems or to perform a computação. Algorithms are used as specifications for performing calculations e data processing. More advanced algorithms can use conditionals to divert the code execution through various routes (referred to as automated decision-making) and deduce valid inferences (referred to as automated reasoning), achieving automation eventually. Using human characteristics as descriptors of machines in metaphorical ways was already practiced by Alan Turing with terms such as "memory", "search" and "stimulus".

In a loop, subtract the larger number against the smaller number. Halt the loop when the subtraction will make a number negative. Assess two numbers whether one of them equal to zero or not. If yes, take the other number as the greatest common divisor. If no, put the two number in the subtraction loop again.
Flowchart of using successive subtractions to find the greatest common divisor of number r e s

In contrast, a heuristic is an approach to problem solving that may not be fully specified or may not guarantee correct or optimal results, especially in problem domains where there is no well-defined correct or optimal result. For example, social media recommender systems rely on heuristics in such a way that, although widely characterized as "algorithms" in 21st century popular media, cannot deliver correct results due to the nature of the problem.

As an effective method, an algorithm can be expressed within a finite amount of space and time and in a well-defined formal language for calculating a função. Starting from an initial state and initial input (perhaps empty), the instructions describe a computation that, when executed, proceeds through a finite number of well-defined successive states, eventually producing "output" and terminating at a final ending state. The transition from one state to the next is not necessarily deterministic; some algorithms, known as randomized algorithms, incorporate random input.

" Voltar ao Índice do Glossário
pt_PT_ao90PT
Deslocar para o topo