03LaTeX学习系列之—TeXworks的使用

03LaTeX学习系列之—TeXworks的使用

03TeXworks的使用

目录

本系列是有关LaTeX的学习系列,共计19篇,本章节是第3篇。
前一篇:02LaTeX学习系列之—TeX环境的搭建
后一篇:04LaTeX学习系列之—overleafz在线编辑平台的使用
总目录:19LaTeX学习系列之—LaTeX的总结

前言

在“02Tex的环境搭建”一章中,我们提及了几个流行的TeX编辑环境,今天我们来讲讲TeXworks的使用。

(一)Texworks的认识

1.TeXworks的安装

TeXworks不需要安装,在下载安装完Tex Live后就会有,是TeX Live自带的编辑器

2.TeXworks的优点

为什么使用Texworks呢?主要有下面两方面:

  1. 是TeX Live自带的,比较方面。
  2. 其比较轻量级,不占用内存多少。
  3. 没有自动补齐,适合新手学习。
  4. 界面简洁,只有一些必要的功能。

3.TeXworks的界面

01.png

(二)Texworks的编译与查看

1.选择编译环境

06.png

2.编译

在TeXworks的编译便是排版,当我们按下绿色的排版按钮,便会在右边弹出输出的窗口

02.png

3.查看

我们还可以在输出的窗口,点击放大镜按钮,再用鼠标选中要放大的文字,便可以放大查看。

03.png

(三)TeXworks的基本设置

1.打开设置的对话框

05.png

2.设置字体,编码等

04.png

3.设置默认的编译器

通过上下箭头,使XeLaTeX处于第一位,并选择默认的编译器是XeLaTeX

07.png

本系列是有关LaTeX的学习系列,共计19篇,本章节是第3篇。
前一篇:02LaTeX学习系列之—TeX环境的搭建
后一篇:04LaTeX学习系列之—overleafz在线编辑平台的使用
总目录:19LaTeX学习系列之—LaTeX的总结

作者:Mark

日期:2019/03/03 周日

转载于:https://www.cnblogs.com/zyg123/p/10499661.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/101060.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • html5 移动端单页面,html5 移动端单页面布局「建议收藏」

    html5 移动端单页面,html5 移动端单页面布局「建议收藏」移动端的web网页使用的是响应式设计,但一般我们看到的网站页面都是跳转刷新得到的,比如通过点击一个menu后进入到另一个页面今天来说下是移动端的单页面的布局。单页面就是一切操作和布局都是在一个页面下进行不需要页面跳转,再通俗的说就是类似于平常的选项卡但是他又比选项卡要复杂一点因为他是在手机端并且当做是一个页面单页面的作用以及优势:1.嵌套到native里实现app的混合开发2.数据量小的页…

    2022年6月21日
    31
  • 上海主要地标经纬度「建议收藏」

    上海主要地标经纬度「建议收藏」金茂大厦经纬度:(121.50109,31.23691)国际会议中心经纬度:(121.49203,31.24149)上海体育馆经纬度:(121.43348,31.18334)龙华机场经纬度:(121.

    2022年8月6日
    5
  • cloin 激活码【2021.8最新】

    (cloin 激活码)JetBrains旗下有多款编译器工具(如:IntelliJ、WebStorm、PyCharm等)在各编程领域几乎都占据了垄断地位。建立在开源IntelliJ平台之上,过去15年以来,JetBrains一直在不断发展和完善这个平台。这个平台可以针对您的开发工作流进行微调并且能够提供…

    2022年3月27日
    93
  • nginx设置编码格式utf-8[通俗易懂]

    nginx设置编码格式utf-8[通俗易懂]nginx设置编码格式utf-8在server下配置charsetutf-8;server{listen8000;server_namelocalhost;charsetutf-8;}后台使用tomcat时,get请求参数乱码更改nginx编码格式设置无效需要更改tomcat编…

    2022年7月11日
    356
  • 网络爬虫——scrapy入门案例

    网络爬虫——scrapy入门案例一、概述Scrapy,Python开发的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试.其最初是为了页面抓取(更确切来说,网络抓取)所设计的,后台也应用在获取API所返回的数据(例如AmazonAssociatesWebServices)或者通用的网络爬虫.Scrapy吸引人的地方在于它是一个框架,任何人都可以根据需求方便的修改。它也提供了多种类型爬虫的基类,如BaseSpider

    2022年6月26日
    29
  • tcpdump抓包命令怎么用_linux系统抓包工具

    tcpdump抓包命令怎么用_linux系统抓包工具今天要给大家介绍的一个Unix下的一个网络数据采集分析工具,也就是我们常说的抓包工具。与它功能类似的工具有wireshark,不同的是,wireshark有图形化界面,而tcpdump则只有命令行。由于我本人更习惯使用命令行的方式进行抓包,因此今天先跳过wireshark,直接给大家介绍这个tcpdump神器。这篇文章,我肝了好几天,借助于Linux的man帮助命令,我把tcpdump的用法全部研究了个遍,才形成了本文,不夸张的说,应该可以算是中文里把tcpdump.

    2022年10月14日
    3

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号