<div dir="ltr"><div dir="ltr">On Sun, Aug 1, 2021 at 1:44 PM Chet Ramey <<a href="mailto:chet.ramey@case.edu">chet.ramey@case.edu</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 7/31/21 12:19 PM, Dan Cross wrote:<br>
> There was someone posting here on TUHS a while back about leveraging a <br>
> special context-sensitive `--shell-help` or similar command line program <br>
> and synthesizing a protocol between the shell and a program to provide <br>
> TOPS-20 like command completion. It was nowhere near what you get from the <br>
> COMND JSYS, but seemed like a reasonable approximation.<br>
<br>
This is essentially how the existing shells do it (bash, zsh, tcsh, etc.),<br>
but in an ad-hoc fashion. There is no standard way to obtain possible<br>
completions or list possible arguments, so the shells push that to external<br>
generators.<br>
<br>
Since you have to perform the completion in the shell, there has to be some<br>
way to tell the shell the possible completions for each command of<br>
interest, whether that's options or arguments. The different shells have<br>
solved that in essentially the same way, with a few syntactic variations.<br>
<br>
Bash provides a framework (complete/compgen/compctl) and pushes a lot of<br>
the command-specific work to external completers. It provides access to the<br>
shell internals (lists of builtins, functions, aliases, variables, and so<br>
on) and built-in ways to perform common completions (filenames, directory<br>
names, command names, etc.), and leaves the rest to external commands or<br>
shell functions.<br>
<br>
The real power and flexibility comes from being able to invoke these<br>
external commands or shell functions to generate lists of possible<br>
completions, and defining an API between the shell and those generators to<br>
specify enough of the command line to make it easy to find the word to be<br>
completed, the command for which completion is being attempted, and<br>
clarifying context around that word. In the same way, the shell provides an<br>
API for those generators to return possible completions.<br>
<br>
The knowledge about each command's options and arguments is embedded in<br>
these generators.<br>
<br>
A standard way to handle command line options and arguments would make<br>
generators easier to write, but doesn't address the other issues of what,<br>
exactly, the user wants to complete, so the existing mechanisms would<br>
likely not change very much. Something like `--shell-help', as long as it<br>
were context-sensitive, would help more.</blockquote><div><br></div><div>Thanks for the useful background information on existing solutions.</div><div><br></div><div>If I understood the proposal correctly, it was that the program in question would, itself, be the generator as described above. Perhaps it was coupled with a standard structured format for consumption by the shell, which seems like it would be useful for this sort of expansion.</div><div><br></div><div>Of course, the process model in TOPS-20 was very different than in Unix, and in that system, as soon as you typed the _name_ of a command it's image was "run up" in your process. So the interactive help system was provided by a running instance of the program itself. What I gathered from the proposed model was that it involved multiple invocations of the program, but with a special option that would trigger behavior informally described as, "here's the context I've built so far; let me know what options are available here." I don't know that it's terribly "Unixy", but I can see how it would be useful for interactive use.</div><div><br></div><div>As an aside, I maintain some older "machines" at home (even modest hardware can emulate a PDP-10 or Honeywell DPS8), and find that doing so provides me with perspective that can be very useful. Looking at other systems that were available roughly around the time of Unix (TENEX, Multics), it strikes me that the Unix was a bit of an odd-duck with the way it handled exec in terms of destructively overlaying the memory of the user portion of a process with a new image; am I wrong here? I wonder why the "one program per process and exec destroys what was running before" mechanism was implemented? I can imagine it had a lot to do with the constraints that early Unix machines must have imposed on design, not to mention implementation simplicity, but I wonder what the designers thought of other systems' process models and whether they were considered at all? Perhaps Doug and Ken might have thoughts here?</div><div><br></div><div>        - Dan C.</div><div><br></div></div></div>