Ich halte den Begriff des Computers ("Berechners") in diesem Umfeld auch für sehr unglücklich. Künstliche Intelligenz hatte ja einst das Ziel, die wirkliche Intelligenz des Menschen nachzubilden. Daher ist diese Diskussion auch ins das Philosophische abgedriftet. Programmieren selbst hat aber zuerst rein garnichts mit künstlicher Intelligenz zutun. Wenn du so willst, ist jedes Lebewesen ein Computer, der ein oder mehrere bestimmte Programme abarbeitet, je nach dem welche Eingaben er erhält. Die Hardware sind Hirn, Rückenmark (CPU) und verschiedene Muskeln (Aktoren).
Zum Begriff des Programmierens wurde auch schon einiges gesagt. Da geht es darum, eine Folge von Befehlen so logisch abzuarbeiten, dass nach n Befehlen die Maschine (ich reduziere hier beabsichtigt von Computer auf Maschine) in einem definierten Zustand anhält, um weitere Befehle entgegenzunehmen. Dabei sind in der Forschung Maschine auch eher theoretische Gebilde (Turing-Maschine, Deterministic-Finite-Automaton - DFA, Push-Down-Automaton PDA/Kellerautomat,...), die zeigen, dass eine folge von logischen Entschlüssen (Befehlen) in diese definierten Endzustand übergehen können, in dem die Maschine weiß, dass ihr Programm abgelaufen ist.
Diese Überlegungen wurden dann in Hardware-Maschinen überführt. Ein schönes Beispiel ist die Lochstreifen-Maschine. Sie wird mit einem Streifen Papier oder Pappe (oder ein anderes flexibles Material) mit einer endlichen Zahl von Löchern in verschiedenen Abständen und Anordnungen durch ein Lesegerät geführt, welches dann verschiedene Operationen wie Addieren oder Multiplizieren durchgeführt hat. Die Anforderungen stiegen an solche Maschinen, weshalb sie immer komplexer wurden. Der Transistor wurde erfunden, welcher solche Zustände von offen zu geschlossen der Lochstreifen durch seine elektrische Schaltung verwirklicht. Allen sind Grundprinzipien der Logik unterstellt, welche (Halb-/ und Voll-)Addierer, Shifter und ähnliche Konstrukte in Prozessoren und Speicherbausteine verwirklichen. Ihre Programme sind wie schon in den Maschinen eine Folge von Bit's, die ihnen sagen, wie sie sich schalten sollen, um zu einem bestimmten gewünschten Zustand zu gelangen.
Diese Programme sind allerdings in sich noch recht primitiv. Ein Computerprogramm wie wir es hier vor der Nase haben, besteht aus mehreren Millionen solcher kleinen Programme. Sie schalten Bits um, um Farbe zu berechnen, Buchstaben anzuzeigen usw. Farben und Buchstaben sind für den Computer auch nur Zahlenfolgen. Er schaltet sie durch und leitet sie an eine Ausgabe weiter, welche dann einen anderen Computer enthält, der die Farben für sich interpretiert und in für uns sichtbare Signale umwandelt. Erst dann hat das Programm für uns einen Sinn.
Nach diesem Exkurs zurück zur künstlichen Intelligenz. Künstliche Intelligenz ist eine Idealvorstellung. Derzeit existiert sie nur in der Theorie. Sie beinhaltet nicht nur das instinktive Abarbeiten von Programmen sondern auch eine Lernfähigkeit. Die Programme sollen aus ihren Vorgängen und den Eingaben die sie erhalten lernen und sich selbst verändern und anpassen. Die dafür nötigen Vorgänge sind jedoch so komplex und beinhalten eine solche Datenflut, dass sie derzeit noch immer nur schwer zu realisieren sind.
Ich hoffe, die gefallenen Stichworte und Ansätze haben dir geholfen, etwas tiefer in die Materie einsteigen zu können. Wir haben hier wirklich nur an der Oberfläche gekratzt. Um das alles in Gänze zu verstehen, lernen manche Menschen Jahrzehnte lang. Da kann ein einzeiliger Abriss nur sehr ungenau sein.