home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / fonts / 3788 < prev    next >
Encoding:
Internet Message Format  |  1992-12-27  |  5.2 KB

  1. Xref: sparky comp.fonts:3788 gnu.misc.discuss:4113
  2. Newsgroups: comp.fonts,gnu.misc.discuss
  3. Path: sparky!uunet!spool.mu.edu!agate!pasteur!cory.Berkeley.EDU!johnm
  4. From: johnm@cory.Berkeley.EDU (John D. Mitchell)
  5. Subject: Re: "Hinting" using antialiasing? A GNUish alternative...
  6. Message-ID: <1992Dec27.225347.28173@pasteur.Berkeley.EDU>
  7. Sender: nntp@pasteur.Berkeley.EDU (NNTP Poster)
  8. Nntp-Posting-Host: cory.berkeley.edu
  9. Organization: University of California, at Berkeley
  10. References: <freek.725305697@groucho.phil.ruu.nl> <1992Dec25.214916.10472@pasteur.Berkeley.EDU> <PCG.92Dec27213908@decb.aber.ac.uk>
  11. Date: Sun, 27 Dec 1992 22:53:47 GMT
  12. Lines: 100
  13.  
  14. In article <PCG.92Dec27213908@decb.aber.ac.uk> pcg@aber.ac.uk (Piercarlo Grandi) writes:
  15. >On 25 Dec 92 21:49:16 GMT, johnm@cory.Berkeley.EDU (John D. Mitchell) said:
  16. [...]
  17. >johnm> What's to stop me from optimizing the horizontal and vertical
  18. >johnm> lines and then using an anti-aliasing line drawing routine for
  19. >johnm> everything else?
  20. >
  21. >Nothing -- I just wonder why nobody does it for outline fonts too.
  22. >Antialiasing is just as effective for outline fonts as for scaled
  23. >bitmaps.
  24.  
  25. Well, at some level the line/curve/etc. drawing routine must choose between
  26. some set of pixels to light for a given ideal point and so you get some
  27. degree of 'anti-aliasing' no matter what.  I guess it's a question of
  28. to what degree does the algorithm 'consciously' attempts to smooth things.
  29.  
  30. >Incidentally, if I remember well, in most/many windowing standards,
  31. >fonts can only be bitmaps (two colors). I think that's unfortunately
  32. >true of X11 too.
  33.  
  34. You might want to take a look at the documentation for GeoWorks' GEOS
  35. platform.
  36.  
  37. [...]
  38. >No, it is not arbitrary; if you do it arbitrarily then the bitmaps will
  39. >look "bad", because our vision is very sensitive to regularity of shape,
  40. >and other aspects of a character.  Thus for example hints that ensure
  41. >that two stems are the same width.
  42.  
  43. But then how can you handle this with bitmap scaling filters?  It would
  44. seem to me that you will end up encoding the same information that is
  45. encoded by the hints in a program.
  46.  
  47. [...]
  48. >Not better looking, on looks I would think it would be equivalent or
  49. >nearly so; but better in speed and non proprietariness.
  50.  
  51. Non-proprietariness I'll buy.  Speed is another issue entirely.  In any
  52. kind of regular use, you're not building out characters at tons of
  53. different sizes, styles, etc.  So, you build out a given character and then
  54. cache it and fulfill any other uses of the character from the cache if
  55. possible.  Even in very 'ornate' documents,  there really aren't all that
  56. many font changes.  Of course, there are 'silly' documents that change
  57. fonts/styles/etc. for each character but that's certainly not a case that's
  58. worth 'optimizing' for.
  59.  
  60. Also, I don't see how applying some number of algorithmic scaling filters
  61. would be any faster.  I believe (totally my own imagination :-) that only
  62. filters that worked on very local information would be fast.  But since
  63. to get the kind of quality that you want (well, I assume that we want at
  64. least comparable quality) you would have to have some of the filters work
  65. with/on non-local bits (i.e., it would have to look at other areas of the
  66. original and/or scaled bitmap that are not immediately adjacent to the bit
  67. that is currently being worked on.  [Hope that makes sense.]
  68.  
  69. >The argument is that manual hints are applied following an unconscious
  70. >filtering algorithm over the bitmap, one that maintains the regularity
  71. >of a character shape so that it looks nice. Now maybe a suitable
  72. >filtering algorithm can be found that has largely the same properties as
  73. >the unconscious one. There are moderately effective automatic hinting
  74. >algorithms, but I hope that a filtering one can cope better, that is
  75. >with greater generality, and reach nearly the quality of manual hinting
  76. >of outlines (which in many cases amounts to hand tuning of the output
  77. >bitmaps).
  78.  
  79. I'm not sure that I'm understanding what you mean by "an unconscious
  80. filtering algorithm".  My understanding of the typeface design business is
  81. that the designer generates 'perfect' character designs for some very large
  82. em square.  The designers then specifies the hints and their relative
  83. importance to the overall character (such that the more superfluous are
  84. left out sooner as the generated font size is reduced.  How is that
  85. 'unconscious'?  I'll grant that my understanding is incomplete and
  86. generalized.
  87.  
  88. And as you say, any improvements made in the automatic hinting department
  89. for use by the 'filterer's can certainly be used by those creating the
  90. hints for the 'outline'rs so I don't see any particular edge either way.
  91.  
  92. >I think it would be more general because I guess it could be patterned
  93. >after the rather universal properties of human vision; instead some
  94. >hinting systems are patterned after the features of latin glyphs, and do
  95. >not adapt well to other styles of writing.
  96.  
  97. The same argument as above.  Any typeface designer worth anything must take
  98. into account the biases and pecularities of human vision.
  99.  
  100. [...]
  101. >While the outlining+hinting solution really is about considering a glyph
  102. >a geometric figure, that must be drawn on paper with different
  103. >griddings.
  104.  
  105. Hmm... I'll have to ponder this a bit.
  106.  
  107. [...]
  108.  
  109. Thanks,
  110.     John
  111.     johnm@cory.Berkeley.EDU
  112.  
  113. Standard disclaimers apply.
  114.