text
stringlengths 313
1.33M
|
---|
# Medical Applications of Nuclear Physics
## Connection for AP® Courses
Applications of nuclear physics have become an integral part of modern life. From a bone scan that detects a cancer to a radioiodine treatment that cures another, nuclear radiation has many diagnostic and therapeutic applications in medicine. In addition nuclear radiation is used in other useful scanning applications. The fission power reactor and the hope of controlled fusion have made nuclear energy a part of our plans for the future. That said, the destructive potential of nuclear weapons haunts us, as does the possibility of nuclear reactor accidents.
Nuclear physics revealed many secrets of nature, but full exploitation of the technology remains controversial as it is intertwined with human values. Because of its great potential for alleviation of suffering and its power as a giant-scale destroyer of life, nuclear physics is typically viewed with ambivalence. Nuclear physics is a classic example of the truism that applications of technology can be good or evil, but knowledge itself is neither.
This chapter focuses on medical applications of nuclear physics. The sections on fusion and fission address the ideas that objects and systems have properties, such as mass (Big Idea 1), and that interactions between systems can result in changes in those systems (Big Idea 4). The changes that occur as a result of interactions always satisfy conservation laws (Big Idea 5). The mass conservation (Enduring Understanding 1.C) and energy conservation (Enduring Understanding 5.B) are replaced by the law of conservation of mass-energy.
In nuclear fusion and fission reactions, so much potential energy is lost that the mass of the products of a reaction are measurably less than the mass of the reactants (Essential Knowledge 1.C.4, Essential Knowledge 4.C.4) in accordance with the equation
. This equation explains that mass is part of the internal energy of an object or system (Essential Knowledge 5.B.11). In addition, the number of nucleons is conserved in these nuclear reactions (Enduring Understanding 5.G), and that determines which nuclear reactions are possible (Essential Knowledge 5.G.1).
Big Idea 1 Objects and systems have properties such as mass and charge. Systems may have internal structure.
Enduring Understanding 1.C Objects and systems have properties of inertial mass and gravitational mass that are experimentally verified to be the same and that satisfy conservation principles.
Essential Knowledge 1.C.4 In certain processes, mass can be converted to energy and energy can be converted to mass according to
, the equation derived from the theory of special relativity.
Big Idea 4 Interactions between systems can result in changes in those systems.
Enduring Understanding 4.C Interactions with other objects or systems can change the total energy of a system.
Essential Knowledge 4.C.4 Mass can be converted into energy and energy can be converted into mass.
Big Idea 5 Changes that occur as a result of interactions are constrained by conservation laws.
Enduring Understanding 5.B The energy of a system is conserved.
Essential Knowledge 5.B.11 Beyond the classical approximation, mass is actually part of the internal energy of an object or system with
.
Enduring Understanding 5.G Nucleon number is conserved.
Essential Knowledge 5.G.1 The possible nuclear reactions are constrained by the law of conservation of nucleon number. |
# Medical Applications of Nuclear Physics
## Diagnostics and Medical Imaging
### Learning Objectives
By the end of this section, you will be able to:
1. Explain the working principle behind an anger camera.
2. Describe the SPECT and PET imaging techniques.
Most medical and related applications of nuclear physics are driven, at their core, by the difference between a radioactive substance and a non-radioactive substance. One of the first such methods is the precision measurement and detection method known as radioimmunoassay (RIA). Developed by Rosalyn Sussman Yalow and Solomon Berson in the late 1950s, RIA relies on the principle of competitive binding. For the particular substance being measured, a sample containing a radioactive isotope is prepared. A known quantity of antibodies is then introduced. By measuring the amount of "unbound" antibodies after the reaction, technicians can detect and measure the precise amount of the target substance. Radioimmunoassay is essential in cancer screening, hepatitis diagnosis, narcotics investigation, and other analyses.
A host of medical imaging techniques employ nuclear radiation. What makes nuclear radiation so useful? First, radiation can easily penetrate tissue; hence, it is a useful probe to monitor conditions inside the body. Second, nuclear radiation depends on the nuclide and not on the chemical compound it is in, so that a radioactive nuclide can be put into a compound designed for specific purposes. The compound is said to be tagged. A tagged compound used for medical purposes is called a radiopharmaceutical. Radiation detectors external to the body can determine the location and concentration of a radiopharmaceutical to yield medically useful information. For example, certain drugs are concentrated in inflamed regions of the body, and this information can aid diagnosis and treatment as seen in . Another application utilizes a radiopharmaceutical which the body sends to bone cells, particularly those that are most active, to detect cancerous tumors or healing points. Images can then be produced of such bone scans. Radioisotopes are also used to determine the functioning of body organs, such as blood flow, heart muscle activity, and iodine uptake in the thyroid gland.
### Medical Application
lists certain medical diagnostic uses of radiopharmaceuticals, including isotopes and activities that are typically administered. Many organs can be imaged with a variety of nuclear isotopes replacing a stable element by a radioactive isotope. One common diagnostic employs iodine to image the thyroid, since iodine is concentrated in that organ. The most active thyroid cells, including cancerous cells, concentrate the most iodine and, therefore, emit the most radiation. Conversely, hypothyroidism is indicated by lack of iodine uptake. Note that there is more than one isotope that can be used for several types of scans. Another common nuclear diagnostic is the thallium scan for the cardiovascular system, particularly used to evaluate blockages in the coronary arteries and examine heart activity. The salt TlCl can be used, because it acts like NaCl and follows the blood. Gallium-67 accumulates where there is rapid cell growth, such as in tumors and sites of infection. Hence, it is useful in cancer imaging. Usually, the patient receives the injection one day and has a whole body scan 3 or 4 days later because it can take several days for the gallium to build up.
Note that lists many diagnostic uses for , where “m” stands for a metastable state of the technetium nucleus. Perhaps 80 percent of all radiopharmaceutical procedures employ because of its many advantages. One is that the decay of its metastable state produces a single, easily identified 0.142-MeV
ray. Additionally, the radiation dose to the patient is limited by the short 6.0-h half-life of
. And, although its half-life is short, it is easily and continuously produced on site. The basic process for production is neutron activation of molybdenum, which quickly
decays into
. Technetium-99m can be attached to many compounds to allow the imaging of the skeleton, heart, lungs, kidneys, etc.
shows one of the simpler methods of imaging the concentration of nuclear activity, employing a device called an Anger camera or gamma camera. A piece of lead with holes bored through it collimates rays emerging from the patient, allowing detectors to receive rays from specific directions only. The computer analysis of detector signals produces an image. One of the disadvantages of this detection method is that there is no depth information (i.e., it provides a two-dimensional view of the tumor as opposed to a three-dimensional view), because radiation from any location under that detector produces a signal.
Imaging techniques much like those in x-ray computed tomography (CT) scans use nuclear activity in patients to form three-dimensional images. shows a patient in a circular array of detectors that may be stationary or rotated, with detector output used by a computer to construct a detailed image. This technique is called single-photon-emission computed tomography(SPECT) or sometimes simply SPET. The spatial resolution of this technique is poor, about 1 cm, but the contrast (i.e. the difference in visual properties that makes an object distinguishable from other objects and the background) is good.
Images produced by
emitters have become important in recent years. When the emitted positron (
) encounters an electron, mutual annihilation occurs, producing two rays. These rays have identical 0.511-MeV energies (the energy comes from the destruction of an electron or positron mass) and they move directly away from one another, allowing detectors to determine their point of origin accurately, as shown in . The system is called positron emission tomography (PET). It requires detectors on opposite sides to simultaneously (i.e., at the same time) detect photons of 0.511-MeV energy and utilizes computer imaging techniques similar to those in SPECT and CT scans. Examples of
-emitting isotopes used in PET are
,
,
, and
, as seen in . This list includes C, N, and O, and so they have the advantage of being able to function as tags for natural body compounds. Its resolution of 0.5 cm is better than that of SPECT; the accuracy and sensitivity of PET scans make them useful for examining the brain’s anatomy and function. The brain’s use of oxygen and water can be monitored with
. PET is used extensively for diagnosing brain disorders. It can note decreased metabolism in certain regions prior to a confirmation of Alzheimer’s disease. PET can locate regions in the brain that become active when a person carries out specific activities, such as speaking, closing their eyes, and so on.
### Section Summary
1. Radiopharmaceuticals are compounds that are used for medical imaging and therapeutics.
2. The process of attaching a radioactive substance is called tagging.
3. lists certain diagnostic uses of radiopharmaceuticals including the isotope and activity typically used in diagnostics.
4. One common imaging device is the Anger camera, which consists of a lead collimator, radiation detectors, and an analysis computer.
5. Tomography performed with -emitting radiopharmaceuticals is called SPECT and has the advantages of x-ray CT scans coupled with organ- and function-specific drugs.
6. PET is a similar technique that uses emitters and detects the two annihilation rays, which aid to localize the source.
### Conceptual Questions
### Problems & Exercises
|
# Medical Applications of Nuclear Physics
## Biological Effects of Ionizing Radiation
### Learning Objectives
By the end of this section, you will be able to:
1. Define various units of radiation.
2. Describe RBE.
We hear many seemingly contradictory things about the biological effects of ionizing radiation. It can cause cancer, burns, and hair loss, yet it is used to treat and even cure cancer. How do we understand these effects? Once again, there is an underlying simplicity in nature, even in complicated biological organisms. All the effects of ionizing radiation on biological tissue can be understood by knowing that ionizing radiation affects molecules within cells, particularly DNA molecules.
Let us take a brief look at molecules within cells and how cells operate. Cells have long, double-helical DNA molecules containing chemical codes called genetic codes that govern the function and processes undertaken by the cell. It is for unraveling the double-helical structure of DNA that James Watson, Francis Crick, and Maurice Wilkins received the Nobel Prize. Damage to DNA consists of breaks in chemical bonds or other changes in the structural features of the DNA chain, leading to changes in the genetic code. In human cells, we can have as many as a million individual instances of damage to DNA per cell per day. It is remarkable that DNA contains codes that check whether the DNA is damaged or can repair itself. It is like an auto check and repair mechanism. This repair ability of DNA is vital for maintaining the integrity of the genetic code and for the normal functioning of the entire organism. It should be constantly active and needs to respond rapidly. The rate of DNA repair depends on various factors such as the cell type and age of the cell. A cell with a damaged ability to repair DNA, which could have been induced by ionizing radiation, can do one of the following:
1. The cell can go into an irreversible state of dormancy, known as senescence.
2. The cell can initiate programmed cell death.
3. The cell can go into unregulated cell division leading to tumors and cancers.
Since ionizing radiation damages the DNA, which is critical in cell reproduction, it has its greatest effect on cells that rapidly reproduce, including most types of cancer. Thus, cancer cells are more sensitive to radiation than normal cells and can be killed by it easily. Cancer is characterized by a malfunction of cell reproduction, and can also be caused by ionizing radiation. Without contradiction, ionizing radiation can be both a cure and a cause.
To discuss quantitatively the biological effects of ionizing radiation, we need a radiation dose unit that is directly related to those effects. All effects of radiation are assumed to be directly proportional to the amount of ionization produced in the biological organism. The amount of ionization is in turn proportional to the amount of deposited energy. Therefore, we define a radiation dose unit called the rad, as of a joule of ionizing energy deposited per kilogram of tissue, which is
For example, if a 50.0-kg person is exposed to ionizing radiation over her entire body and she absorbs 1.00 J, then her whole-body radiation dose is
If the same 1.00 J of ionizing energy were absorbed in her 2.00-kg forearm alone, then the dose to the forearm would be
and the unaffected tissue would have a zero rad dose. While calculating radiation doses, you divide the energy absorbed by the mass of affected tissue. You must specify the affected region, such as the whole body or forearm in addition to giving the numerical dose in rads. The SI unit for radiation dose is the gray (Gy), which is defined to be
However, the rad is still commonly used. Although the energy per kilogram in 1 rad is small, it has significant effects since the energy causes ionization. The energy needed for a single ionization is a few eV, or less than . Thus, 0.01 J of ionizing energy can create a huge number of ion pairs and have an effect at the cellular level.
The effects of ionizing radiation may be directly proportional to the dose in rads, but they also depend on the type of radiation and the type of tissue. That is, for a given dose in rads, the effects depend on whether the radiation is x-ray, or some other type of ionizing radiation. In the earlier discussion of the range of ionizing radiation, it was noted that energy is deposited in a series of ionizations and not in a single interaction. Each ion pair or ionization requires a certain amount of energy, so that the number of ion pairs is directly proportional to the amount of the deposited ionizing energy. But, if the range of the radiation is small, as it is for s, then the ionization and the damage created is more concentrated and harder for the organism to repair, as seen in . Concentrated damage is more difficult for biological organisms to repair than damage that is spread out, so short-range particles have greater biological effects. The relative biological effectiveness (RBE) or quality factor (QF) is given in for several types of ionizing radiation—the effect of the radiation is directly proportional to the RBE. A dose unit more closely related to effects in biological tissue is called the roentgen equivalent man or rem and is defined to be the dose in rads multiplied by the relative biological effectiveness.
So, if a person had a whole-body dose of 2.00 rad of radiation, the dose in rem would be . If the person had a whole-body dose of 2.00 rad of radiation, then the dose in rem would be . The s would have 20 times the effect on the person than the s for the same deposited energy. The SI equivalent of the rem is the sievert (Sv), defined to be , so that
The RBEs given in are approximate, but they yield certain insights. For example, the eyes are more sensitive to radiation, because the cells of the lens do not repair themselves. Neutrons cause more damage than rays, although both are neutral and have large ranges, because neutrons often cause secondary radiation when they are captured. Note that the RBEs are 1 for higher-energy s, s, and x-rays, three of the most common types of radiation. For those types of radiation, the numerical values of the dose in rem and rad are identical. For example, 1 rad of radiation is also 1 rem. For that reason, rads are still widely quoted rather than rem. summarizes the units that are used for radiation.
A high level of activity doesn’t mean much if a person is far away from the source. The activity of a source depends upon the quantity of material (kg) as well as the half-life. A short half-life will produce many more disintegrations per second. Recall that . Also, the activity decreases exponentially, which is seen in the equation .
The large-scale effects of radiation on humans can be divided into two categories: immediate effects and long-term effects. gives the immediate effects of whole-body exposures received in less than one day. If the radiation exposure is spread out over more time, greater doses are needed to cause the effects listed. This is due to the body’s ability to partially repair the damage. Any dose less than 100 mSv (10 rem) is called a low dose, 0.1 Sv to 1 Sv (10 to 100 rem) is called a moderate dose, and anything greater than 1 Sv (100 rem) is called a high dose. There is no known way to determine after the fact if a person has been exposed to less than 10 mSv.
Immediate effects are explained by the effects of radiation on cells and the sensitivity of rapidly reproducing cells to radiation. The first clue that a person has been exposed to radiation is a change in blood count, which is not surprising since blood cells are the most rapidly reproducing cells in the body. At higher doses, nausea and hair loss are observed, which may be due to interference with cell reproduction. Cells in the lining of the digestive system also rapidly reproduce, and their destruction causes nausea. When the growth of hair cells slows, the hair follicles become thin and break off. High doses cause significant cell death in all systems, but the lowest doses that cause fatalities do so by weakening the immune system through the loss of white blood cells.
The two known long-term effects of radiation are cancer and genetic defects. Both are directly attributable to the interference of radiation with cell reproduction. For high doses of radiation, the risk of cancer is reasonably well known from studies of exposed groups. Hiroshima and Nagasaki survivors and a smaller number of people exposed by their occupation, such as radium dial painters, have been fully documented. Chernobyl victims will be studied for many decades, with some data already available. For example, a significant increase in childhood thyroid cancer has been observed. The risk of a radiation-induced cancer for low and moderate doses is generally assumed to be proportional to the risk known for high doses. Under this assumption, any dose of radiation, no matter how small, involves a risk to human health. This is called the linear hypothesis and it may be prudent, but it is controversial. There is some evidence that, unlike the immediate effects of radiation, the long-term effects are cumulative and there is little self-repair. This is analogous to the risk of skin cancer from UV exposure, which is known to be cumulative.
There is a latency period for the onset of radiation-induced cancer of about 2 years for leukemia and 15 years for most other forms. The person is at risk for at least 30 years after the latency period. Omitting many details, the overall risk of a radiation-induced cancer death per year per rem of exposure is about 10 in a million, which can be written as .
If a person receives a dose of 1 rem, his risk each year of dying from radiation-induced cancer is 10 in a million and that risk continues for about 30 years. The lifetime risk is thus 300 in a million, or 0.03 percent. Since about 20 percent of all worldwide deaths are from cancer, the increase due to a 1 rem exposure is impossible to detect demographically. But 100 rem (1 Sv), which was the dose received by the average Hiroshima and Nagasaki survivor, causes a 3 percent risk, which can be observed in the presence of a 20 percent normal or natural incidence rate.
The incidence of genetic defects induced by radiation is about one-third that of cancer deaths, but is much more poorly known. The lifetime risk of a genetic defect due to a 1 rem exposure is about 100 in a million or , but the normal incidence is 60,000 in a million. Evidence of such a small increase, tragic as it is, is nearly impossible to obtain. For example, there is no evidence of increased genetic defects among the offspring of Hiroshima and Nagasaki survivors. Animal studies do not seem to correlate well with effects on humans and are not very helpful. For both cancer and genetic defects, the approach to safety has been to use the linear hypothesis, which is likely to be an overestimate of the risks of low doses. Certain researchers even claim that low doses are beneficial. Hormesis is a term used to describe generally favorable biological responses to low exposures of toxins or radiation. Such low levels may help certain repair mechanisms to develop or enable cells to adapt to the effects of the low exposures. Positive effects may occur at low doses that could be a problem at high doses.
Even the linear hypothesis estimates of the risks are relatively small, and the average person is not exposed to large amounts of radiation. lists average annual background radiation doses from natural and artificial sources for Australia, the United States, Germany, and world-wide averages. Cosmic rays are partially shielded by the atmosphere, and the dose depends upon altitude and latitude, but the average is about 0.40 mSv/y. A good example of the variation of cosmic radiation dose with altitude comes from the airline industry. Monitored personnel show an average of 2 mSv/y. A 12-hour flight might give you an exposure of 0.02 to 0.03 mSv.
Doses from the Earth itself are mainly due to the isotopes of uranium, thorium, and potassium, and vary greatly by location. Some places have great natural concentrations of uranium and thorium, yielding doses ten times as high as the average value. Internal doses come from foods and liquids that we ingest. Fertilizers containing phosphates have potassium and uranium. So we are all a little radioactive. Carbon-14 has about 66 Bq/kg radioactivity whereas fertilizers may have more than 3000 Bq/kg radioactivity. Medical and dental diagnostic exposures are mostly from x-rays. It should be noted that x-ray doses tend to be localized and are becoming much smaller with improved techniques. shows typical doses received during various diagnostic x-ray examinations. Note the large dose from a CT scan. While CT scans only account for less than 20 percent of the x-ray procedures done today, they account for about 50 percent of the annual dose received.
Radon is usually more pronounced underground and in buildings with low air exchange with the outside world. Almost all soil contains some and , but radon is lower in mainly sedimentary soils and higher in granite soils. Thus, the exposure to the public can vary greatly, even within short distances. Radon can diffuse from the soil into homes, especially basements. The estimated exposure for is controversial. Recent studies indicate there is more radon in homes than had been realized, and it is speculated that radon may be responsible for 20 percent of lung cancers, being particularly hazardous to those who also smoke. Many countries have introduced limits on allowable radon concentrations in indoor air, often requiring the measurement of radon concentrations in a house prior to its sale. Ironically, it could be argued that the higher levels of radon exposure and their geographic variability, taken with the lack of demographic evidence of any effects, means that low-level radiation is less dangerous than previously thought.
### Radiation Protection
Laws regulate radiation doses to which people can be exposed. The greatest occupational whole-body dose that is allowed depends upon the country and is about 20 to 50 mSv/y and is rarely reached by medical and nuclear power workers. Higher doses are allowed for the hands. Much lower doses are permitted for the reproductive organs and the fetuses of pregnant women. Inadvertent doses to the public are limited to of occupational doses, except for those caused by nuclear power, which cannot legally expose the public to more than of the occupational limit or 0.05 mSv/y (5 mrem/y). This has been exceeded in the United States only at the time of the Three Mile Island (TMI) accident in 1979. Chernobyl is another story. Extensive monitoring with a variety of radiation detectors is performed to assure radiation safety. Increased ventilation in uranium mines has lowered the dose there to about 1 mSv/y.
To physically limit radiation doses, we use shielding, increase the distance from a source, and limit the time of exposure.
illustrates how these are used to protect both the patient and the dental technician when an x-ray is taken. Shielding absorbs radiation and can be provided by any material, including sufficient air. The greater the distance from the source, the more the radiation spreads out. The less time a person is exposed to a given source, the smaller is the dose received by the person. Doses from most medical diagnostics have decreased in recent years due to faster films that require less exposure time.
### Problem-Solving Strategy
You need to follow certain steps for dose calculations, which are
Examine the situation to determine that a person is exposed to ionizing radiation.
Identify exactly what needs to be determined in the problem (identify the unknowns). The most straightforward problems ask for a dose calculation.
Make a list of what is given or can be inferred from the problem as stated (identify the knowns). Look for information on the type of radiation, the energy per event, the activity, and the mass of tissue affected.
For dose calculations, you need to determine the energy deposited. This may take one or more steps, depending on the given information.
Divide the deposited energy by the mass of the affected tissue. Use units of joules for energy and kilograms for mass. To calculate the dose in Gy, use the definition that 1 Gy = 1 J/kg.
To calculate the dose in mSv, determine the RBE (QF) of the radiation. Recall that .
Check the answer to see if it is reasonable: Does it make sense? The dose should be consistent with the numbers given in the text for diagnostic, occupational, and therapeutic exposures.
### Risk versus Benefit
Medical doses of radiation are also limited. Diagnostic doses are generally low and have further lowered with improved techniques and faster films. With the possible exception of routine dental x-rays, radiation is used diagnostically only when needed so that the low risk is justified by the benefit of the diagnosis. Chest x-rays give the lowest doses—about 0.1 mSv to the tissue affected, with less than 5 percent scattering into tissues that are not directly imaged. Other x-ray procedures range upward to about 10 mSv in a CT scan, and about 5 mSv (0.5 rem) per dental x-ray, again both only affecting the tissue imaged. Medical images with radiopharmaceuticals give doses ranging from 1 to 5 mSv, usually localized. One exception is the thyroid scan using . Because of its relatively long half-life, it exposes the thyroid to about 0.75 Sv. The isotope is more difficult to produce, but its short half-life limits thyroid exposure to about 15 mSv.
### Test Prep for AP Courses
### Section Summary
1. The biological effects of ionizing radiation are due to two effects it has on cells: interference with cell reproduction, and destruction of cell function.
2. A radiation dose unit called the rad is defined in terms of the ionizing energy deposited per kilogram of tissue:
3. The SI unit for radiation dose is the gray (Gy), which is defined to be
4. To account for the effect of the type of particle creating the ionization, we use the relative biological effectiveness (RBE) or quality factor (QF) given in and define a unit called the roentgen equivalent man (rem) as
5. Particles that have short ranges or create large ionization densities have RBEs greater than unity. The SI equivalent of the rem is the sievert (Sv), defined to be
6. Whole-body, single-exposure doses of 0.1 Sv or less are low doses while those of 0.1 to 1 Sv are moderate, and those over 1 Sv are high doses. Some immediate radiation effects are given in . Effects due to low doses are not observed, but their risk is assumed to be directly proportional to those of high doses, an assumption known as the linear hypothesis. Long-term effects are cancer deaths at the rate of and genetic defects at roughly one-third this rate. Background radiation doses and sources are given in . World-wide average radiation exposure from natural sources, including radon, is about 3 mSv, or 300 mrem. Radiation protection utilizes shielding, distance, and time to limit exposure.
### Conceptual Questions
### Problems & Exercises
|
# Medical Applications of Nuclear Physics
## Therapeutic Uses of Ionizing Radiation
### Learning Objectives
By the end of this section, you will be able to:
1. Explain the concept of radiotherapy and list typical doses for cancer therapy.
Therapeutic applications of ionizing radiation, called radiation therapy or radiotherapy, have existed since the discovery of x-rays and nuclear radioactivity. Today, radiotherapy is used almost exclusively for cancer therapy, where it saves thousands of lives and improves the quality of life and longevity of many it cannot save. Radiotherapy may be used alone or in combination with surgery and chemotherapy (drug treatment) depending on the type of cancer and the response of the patient. A careful examination of all available data has established that radiotherapy’s beneficial effects far outweigh its long-term risks.
### Medical Application
The earliest uses of ionizing radiation on humans were mostly harmful, with many at the level of snake oil as seen in . Radium-doped cosmetics that glowed in the dark were used around the time of World War I. As recently as the 1950s, radon mine tours were promoted as healthful and rejuvenating—those who toured were exposed but gained no benefits. Radium salts were sold as health elixirs for many years. The gruesome death of a wealthy industrialist, who became psychologically addicted to the brew, alerted the unsuspecting to the dangers of radium salt elixirs. Most abuses finally ended after the legislation in the 1950s.
Radiotherapy is effective against cancer because cancer cells reproduce rapidly and, consequently, are more sensitive to radiation. The central problem in radiotherapy is to make the dose for cancer cells as high as possible while limiting the dose for normal cells. The ratio of abnormal cells killed to normal cells killed is called the therapeutic ratio, and all radiotherapy techniques are designed to enhance this ratio. Radiation can be concentrated in cancerous tissue by a number of techniques. One of the most prevalent techniques for well-defined tumors is a geometric technique shown in . A narrow beam of radiation is passed through the patient from a variety of directions with a common crossing point in the tumor. This concentrates the dose in the tumor while spreading it out over a large volume of normal tissue. The external radiation can be x-rays, rays, or ionizing-particle beams produced by accelerators. Accelerator-produced beams of neutrons, , and heavy ions such as nitrogen nuclei have been employed, and these can be quite effective. These particles have larger QFs or RBEs and sometimes can be better localized, producing a greater therapeutic ratio. But accelerator radiotherapy is much more expensive and less frequently employed than other forms.
Another form of radiotherapy uses chemically inert radioactive implants. One use is for prostate cancer. Radioactive seeds (about 40 to 100 and the size of a grain of rice) are placed in the prostate region. The isotopes used are usually (6-month half life) or (3-month half life). Alpha emitters have the dual advantages of a large QF and a small range for better localization.
Radiopharmaceuticals are used for cancer therapy when they can be localized well enough to produce a favorable therapeutic ratio. Thyroid cancer is commonly treated utilizing radioactive iodine. Thyroid cells concentrate iodine, and cancerous thyroid cells are more aggressive in doing this. An ingenious use of radiopharmaceuticals in cancer therapy tags antibodies with radioisotopes. Antibodies produced by a patient to combat his cancer are extracted, cultured, loaded with a radioisotope, and then returned to the patient. The antibodies are concentrated almost entirely in the tissue they developed to fight, thus localizing the radiation in abnormal tissue. The therapeutic ratio can be quite high for short-range radiation. There is, however, a significant dose for organs that eliminate radiopharmaceuticals from the body, such as the liver, kidneys, and bladder. As with most radiotherapy, the technique is limited by the tolerable amount of damage to the normal tissue.
lists typical therapeutic doses of radiation used against certain cancers. The doses are large, but not fatal because they are localized and spread out in time. Protocols for treatment vary with the type of cancer and the condition and response of the patient. Three to five 200-rem treatments per week for a period of several weeks is typical. Time between treatments allows the body to repair normal tissue. This effect occurs because damage is concentrated in the abnormal tissue, and the abnormal tissue is more sensitive to radiation. Damage to normal tissue limits the doses. You will note that the greatest doses are given to any tissue that is not rapidly reproducing, such as in the adult brain. Lung cancer, on the other end of the scale, cannot ordinarily be cured with radiation because of the sensitivity of lung tissue and blood to radiation. But radiotherapy for lung cancer does alleviate symptoms and prolong life and is therefore justified in some cases.
Finally, it is interesting to note that chemotherapy employs drugs that interfere with cell division and is, thus, also effective against cancer. It also has almost the same side effects, such as nausea and hair loss, and risks, such as the inducement of another cancer.
### Section Summary
1. Radiotherapy is the use of ionizing radiation to treat ailments, now limited to cancer therapy.
2. The sensitivity of cancer cells to radiation enhances the ratio of cancer cells killed to normal cells killed, which is called the therapeutic ratio.
3. Doses for various organs are limited by the tolerance of normal tissue for radiation. Treatment is localized in one region of the body and spread out in time.
### Conceptual Questions
### Problems & Exercises
|
# Medical Applications of Nuclear Physics
## Food Irradiation
### Learning Objectives
By the end of this section, you will be able to:
1. Define food irradiation low dose, and free radicals.
Ionizing radiation is widely used to sterilize medical supplies, such as bandages, and consumer products, such as tampons. Worldwide, it is also used to irradiate food, an application that promises to grow in the future. Food irradiation is the treatment of food with ionizing radiation. It is used to reduce pest infestation and to delay spoilage and prevent illness caused by microorganisms. Food irradiation is controversial. Proponents see it as superior to pasteurization, preservatives, and insecticides, supplanting dangerous chemicals with a more effective process. Opponents see its safety as unproven, perhaps leaving worse toxic residues as well as presenting an environmental hazard at treatment sites. In developing countries, food irradiation might increase crop production by 25.0% or more, and reduce food spoilage by a similar amount. It is used chiefly to treat spices and some fruits, and in some countries, red meat, poultry, and vegetables. Over 40 countries have approved food irradiation at some level.
Food irradiation exposes food to large doses of rays, x-rays, or electrons. These photons and electrons induce no nuclear reactions and thus create no residual radioactivity. (Some forms of ionizing radiation, such as neutron irradiation, cause residual radioactivity. These are not used for food irradiation.) The source is usually or , the latter isotope being a major by-product of nuclear power. Cobalt-60 rays average 1.25 MeV, while those of are 0.67 MeV and are less penetrating. X-rays used for food irradiation are created with voltages of up to 5 million volts and, thus, have photon energies up to 5 MeV. Electrons used for food irradiation are accelerated to energies up to 10 MeV. The higher the energy per particle, the more penetrating the radiation is and the more ionization it can create. shows a typical -irradiation plant.
Owing to the fact that food irradiation seeks to destroy organisms such as insects and bacteria, much larger doses than those fatal to humans must be applied. Generally, the simpler the organism, the more radiation it can tolerate. (Cancer cells are a partial exception, because they are rapidly reproducing and, thus, more sensitive.) Current licensing allows up to 1000 Gy to be applied to fresh fruits and vegetables, called a low dose in food irradiation. Such a dose is enough to prevent or reduce the growth of many microorganisms, but about 10,000 Gy is needed to kill salmonella, and even more is needed to kill fungi. Doses greater than 10,000 Gy are considered to be high doses in food irradiation and product sterilization.
The effectiveness of food irradiation varies with the type of food. Spices and many fruits and vegetables have dramatically longer shelf lives. These also show no degradation in taste and no loss of food value or vitamins. If not for the mandatory labeling, such foods subjected to low-level irradiation (up to 1000 Gy) could not be distinguished from untreated foods in quality. However, some foods actually spoil faster after irradiation, particularly those with high water content like lettuce and peaches. Others, such as milk, are given a noticeably unpleasant taste. High-level irradiation produces significant and chemically measurable changes in foods. It produces about a 15% loss of nutrients and a 25% loss of vitamins, as well as some change in taste. Such losses are similar to those that occur in ordinary freezing and cooking.
How does food irradiation work? Ionization produces a random assortment of broken molecules and ions, some with unstable oxygen- or hydrogen-containing molecules known as free radicals. These undergo rapid chemical reactions, producing perhaps four or five thousand different compounds called radiolytic products, some of which make cell function impossible by breaking cell membranes, fracturing DNA, and so on. How safe is the food afterward? Critics argue that the radiolytic products present a lasting hazard, perhaps being carcinogenic. However, the safety of irradiated food is not known precisely. We do know that low-level food irradiation produces no compounds in amounts that can be measured chemically. This is not surprising, since trace amounts of several thousand compounds may be created. We also know that there have been no observable negative short-term effects on consumers. Long-term effects may show up if large number of people consume large quantities of irradiated food, but no effects have appeared due to the small amounts of irradiated food that are consumed regularly. The case for safety is supported by testing of animal diets that were irradiated; no transmitted genetic effects have been observed. Food irradiation (at least up to a million rad) has been endorsed by the World Health Organization and the UN Food and Agricultural Organization. Finally, the hazard to consumers, if it exists, must be weighed against the benefits in food production and preservation. It must also be weighed against the very real hazards of existing insecticides and food preservatives.
### Section Summary
1. Food irradiation is the treatment of food with ionizing radiation.
2. Irradiating food can destroy insects and bacteria by creating free radicals and radiolytic products that can break apart cell membranes.
3. Food irradiation has produced no observable negative short-term effects for humans, but its long-term effects are unknown.
### Conceptual Questions
|
# Medical Applications of Nuclear Physics
## Fusion
### Learning Objectives
By the end of this section, you will be able to:
1. Define nuclear fusion.
2. Discuss processes to achieve practical fusion energy generation.
While basking in the warmth of the summer sun, a student reads of the latest breakthrough in achieving sustained thermonuclear power and vaguely recalls hearing about the cold fusion controversy. The three are connected. The Sun’s energy is produced by nuclear fusion (see ). Thermonuclear power is the name given to the use of controlled nuclear fusion as an energy source. While research in the area of thermonuclear power is progressing, high temperatures and containment difficulties remain. The cold fusion controversy centered around unsubstantiated claims of practical fusion power at room temperatures.
Nuclear fusion is a reaction in which two nuclei are combined, or fused, to form a larger nucleus. We know that all nuclei have less mass than the sum of the masses of the protons and neutrons that form them. The missing mass times equals the binding energy of the nucleus—the greater the binding energy, the greater the missing mass. We also know that , the binding energy per nucleon, is greater for medium-mass nuclei and has a maximum at Fe (iron). This means that if two low-mass nuclei can be fused together to form a larger nucleus, energy can be released. The larger nucleus has a greater binding energy and less mass per nucleon than the two that combined. Thus mass is destroyed in the fusion reaction, and energy is released (see ). On average, fusion of low-mass nuclei releases energy, but the details depend on the actual nuclides involved.
The major obstruction to fusion is the Coulomb repulsion between nuclei. Since the attractive nuclear force that can fuse nuclei together is short ranged, the repulsion of like positive charges must be overcome to get nuclei close enough to induce fusion. shows an approximate graph of the potential energy between two nuclei as a function of the distance between their centers. The graph is analogous to a hill with a well in its center. A ball rolled from the right must have enough kinetic energy to get over the hump before it falls into the deeper well with a net gain in energy. So it is with fusion. If the nuclei are given enough kinetic energy to overcome the electric potential energy due to repulsion, then they can combine, release energy, and fall into a deep well. One way to accomplish this is to heat fusion fuel to high temperatures so that the kinetic energy of thermal motion is sufficient to get the nuclei together.
You might think that, in the core of our Sun, nuclei are coming into contact and fusing. However, in fact, temperatures on the order of are needed to actually get the nuclei in contact, exceeding the core temperature of the Sun. Quantum mechanical tunneling is what makes fusion in the Sun possible, and tunneling is an important process in most other practical applications of fusion, too. Since the probability of tunneling is extremely sensitive to barrier height and width, increasing the temperature greatly increases the rate of fusion. The closer reactants get to one another, the more likely they are to fuse (see ). Thus most fusion in the Sun and other stars takes place at their centers, where temperatures are highest. Moreover, high temperature is needed for thermonuclear power to be a practical source of energy.
The Sun produces energy by fusing protons or hydrogen nuclei (by far the Sun’s most abundant nuclide) into helium nuclei . The principal sequence of fusion reactions forms what is called the proton-proton cycle:
where stands for a positron and is an electron neutrino. (The energy in parentheses is released by the reaction.) Note that the first two reactions must occur twice for the third to be possible, so that the cycle consumes six protons () but gives back two. Furthermore, the two positrons produced will find two electrons and annihilate to form four more rays, for a total of six. The overall effect of the cycle is thus
where the 26.7 MeV includes the annihilation energy of the positrons and electrons and is distributed among all the reaction products. The solar interior is dense, and the reactions occur deep in the Sun where temperatures are highest. It takes about 32,000 years for the energy to diffuse to the surface and radiate away. However, the neutrinos escape the Sun in less than two seconds, carrying their energy with them, because they interact so weakly that the Sun is transparent to them. Negative feedback in the Sun acts as a thermostat to regulate the overall energy output. For instance, if the interior of the Sun becomes hotter than normal, the reaction rate increases, producing energy that expands the interior. This cools it and lowers the reaction rate. Conversely, if the interior becomes too cool, it contracts, increasing the temperature and reaction rate (see ). Stars like the Sun are stable for billions of years, until a significant fraction of their hydrogen has been depleted. What happens then is discussed in Frontiers of Physics.
Theories of the proton-proton cycle (and other energy-producing cycles in stars) were pioneered by the German-born, American physicist Hans Bethe (1906–2005), starting in 1938. He was awarded the 1967 Nobel Prize in physics for this work, and he has made many other contributions to physics and society. Neutrinos produced in these cycles escape so readily that they provide us an excellent means to test these theories and study stellar interiors. Detectors have been constructed and operated for more than four decades now to measure solar neutrinos (see ). Although solar neutrinos are detected and neutrinos were observed from Supernova 1987A (), too few solar neutrinos were observed to be consistent with predictions of solar energy production. After many years, this solar neutrino problem was resolved with a blend of theory and experiment that showed that the neutrino does indeed have mass. It was also found that there are three types of neutrinos, each associated with a different type of nuclear decay.
The proton-proton cycle is not a practical source of energy on Earth, in spite of the great abundance of hydrogen (). The reaction
has a very low probability of occurring. (This is why our Sun will last for about ten billion years.) However, a number of other fusion reactions are easier to induce. Among them are:
Deuterium () is about 0.015% of natural hydrogen, so there is an immense amount of it in sea water alone. In addition to an abundance of deuterium fuel, these fusion reactions produce large energies per reaction (in parentheses), but they do not produce much radioactive waste. Tritium () is radioactive, but it is consumed as a fuel (the reaction ), and the neutrons and s can be shielded. The neutrons produced can also be used to create more energy and fuel in reactions like
and
Note that these last two reactions, and , put most of their energy output into the ray, and such energy is difficult to utilize.
The three keys to practical fusion energy generation are to achieve the temperatures necessary to make the reactions likely, to raise the density of the fuel, and to confine it long enough to produce large amounts of energy. These three factors—temperature, density, and time—complement one another, and so a deficiency in one can be compensated for by the others. Ignition is defined to occur when the reactions produce enough energy to be self-sustaining after external energy input is cut off. This goal, which must be reached before commercial plants can be a reality, has not been achieved. Another milestone, called break-even, occurs when the fusion power produced equals the heating power input. Break-even has nearly been reached and gives hope that ignition and commercial plants may become a reality in a few decades.
Two techniques have shown considerable promise. The first of these is called magnetic confinement and uses the property that charged particles have difficulty crossing magnetic field lines. The tokamak, shown in , has shown particular promise. The tokamak’s toroidal coil confines charged particles into a circular path with a helical twist due to the circulating ions themselves. In 1995, the Tokamak Fusion Test Reactor at Princeton in the US achieved world-record plasma temperatures as high as 500 million degrees Celsius. This facility operated between 1982 and 1997. A joint international effort is underway in France to build a tokamak-type reactor that will be the stepping stone to commercial power. ITER, as it is called, will be a full-scale device that aims to demonstrate the feasibility of fusion energy. It will generate 500 MW of power for extended periods of time and will achieve break-even conditions. It will study plasmas in conditions similar to those expected in a fusion power plant. Completion is scheduled for 2018.
The second promising technique aims multiple lasers at tiny fuel pellets filled with a mixture of deuterium and tritium. Huge power input heats the fuel, evaporating the confining pellet and crushing the fuel to high density with the expanding hot plasma produced. This technique is called inertial confinement, because the fuel’s inertia prevents it from escaping before significant fusion can take place. Higher densities have been reached than with tokamaks, but with smaller confinement times. In 2009, the Lawrence Livermore Laboratory (CA) completed a laser fusion device with 192 ultraviolet laser beams that are focused upon a D-T pellet (see ).
### Test Prep for AP Courses
### Section Summary
1. Nuclear fusion is a reaction in which two nuclei are combined to form a larger nucleus. It releases energy when light nuclei are fused to form medium-mass nuclei.
2. Fusion is the source of energy in stars, with the proton-proton cycle,
being the principal sequence of energy-producing reactions in our Sun.
3. The overall effect of the proton-proton cycle is
where the 26.7 MeV includes the energy of the positrons emitted and annihilated.
4. Attempts to utilize controlled fusion as an energy source on Earth are related to deuterium and tritium, and the reactions play important roles.
5. Ignition is the condition under which controlled fusion is self-sustaining; it has not yet been achieved. Break-even, in which the fusion energy output is as great as the external energy input, has nearly been achieved.
6. Magnetic confinement and inertial confinement are the two methods being developed for heating fuel to sufficiently high temperatures, at sufficient density, and for sufficiently long times to achieve ignition. The first method uses magnetic fields and the second method uses the momentum of impinging laser beams for confinement.
### Conceptual Questions
### Problems & Exercises
|
# Medical Applications of Nuclear Physics
## Fission
### Learning Objectives
By the end of this section, you will be able to:
1. Define nuclear fission.
2. Discuss how fission fuel reacts and describe what it produces.
3. Describe controlled and uncontrolled chain reactions.
Nuclear fission is a reaction in which a nucleus is split (or fissured). Controlled fission is a reality, whereas controlled fusion is a hope for the future. Hundreds of nuclear fission power plants around the world attest to the fact that controlled fission is practical and, at least in the short term, economical, as seen in . Whereas nuclear power was of little interest for decades following TMI and Chernobyl (and now Fukushima Daiichi), growing concerns over global warming has brought nuclear power back on the table as a viable energy alternative. By the end of 2009, there were 442 reactors operating in 30 countries, providing 15% of the world’s electricity. France provides over 75% of its electricity with nuclear power, while the US has 104 operating reactors providing 20% of its electricity. Australia and New Zealand have none. China is building nuclear power plants at the rate of one start every month.
Fission is the opposite of fusion and releases energy only when heavy nuclei are split. As noted in Fusion, energy is released if the products of a nuclear reaction have a greater binding energy per nucleon () than the parent nuclei. shows that is greater for medium-mass nuclei than heavy nuclei, implying that when a heavy nucleus is split, the products have less mass per nucleon, so that mass is destroyed and energy is released in the reaction. The amount of energy per fission reaction can be large, even by nuclear standards. The graph in shows to be about 7.6 MeV/nucleon for the heaviest nuclei ( about 240), while is about 8.6 MeV/nucleon for nuclei having about 120. Thus, if a heavy nucleus splits in half, then about 1 MeV per nucleon, or approximately 240 MeV per fission, is released. This is about 10 times the energy per fusion reaction, and about 100 times the energy of the average , , or decay.
Spontaneous fission can occur, but this is usually not the most common decay mode for a given nuclide. For example,
can spontaneously fission, but it decays mostly by emission. Neutron-induced fission is crucial as seen in . Being chargeless, even low-energy neutrons can strike a nucleus and be absorbed once they feel the attractive nuclear force. Large nuclei are described by a liquid drop model with surface tension and oscillation modes, because the large number of nucleons act like atoms in a drop. The neutron is attracted and thus, deposits energy, causing the nucleus to deform as a liquid drop. If stretched enough, the nucleus narrows in the middle. The number of nucleons in contact and the strength of the nuclear force binding the nucleus together are reduced. Coulomb repulsion between the two ends then succeeds in fissioning the nucleus, which pops like a water drop into two large pieces and a few neutrons. Neutron-induced fission can be written as
where and are the two daughter nuclei, called fission fragments, and is the number of neutrons produced. Most often, the masses of the fission fragments are not the same. Most of the released energy goes into the kinetic energy of the fission fragments, with the remainder going into the neutrons and excited states of the fragments. Since neutrons can induce fission, a self-sustaining chain reaction is possible, provided more than one neutron is produced on average — that is, if in . This can also be seen in .
An example of a typical neutron-induced fission reaction is
Note that in this equation, the total charge remains the same (is conserved):
. Also, as far as whole numbers are concerned, the mass is constant:
. This is not true when we consider the masses out to 6 or 7 significant places, as in the previous example.
Not every neutron produced by fission induces fission. Some neutrons escape the fissionable material, while others interact with a nucleus without making it fission. We can enhance the number of fissions produced by neutrons by having a large amount of fissionable material. The minimum amount necessary for self-sustained fission of a given nuclide is called its critical mass. Some nuclides, such as
, produce more neutrons per fission than others, such as
. Additionally, some nuclides are easier to make fission than others. In particular,
and
are easier to fission than the much more abundant
. Both factors affect critical mass, which is smallest for
.
The reason
and
are easier to fission than
is that the nuclear force is more attractive for an even number of neutrons in a nucleus than for an odd number. Consider that
has 143 neutrons, and
has 145 neutrons, whereas
has 146. When a neutron encounters a nucleus with an odd number of neutrons, the nuclear force is more attractive, because the additional neutron will make the number even. About 2-MeV more energy is deposited in the resulting nucleus than would be the case if the number of neutrons was already even. This extra energy produces greater deformation, making fission more likely. Thus,
and
are superior fission fuels. The isotope
is only 0.72 % of natural uranium, while
is 99.27%, and
does not exist in nature. Australia has the largest deposits of uranium in the world, standing at 28% of the total. This is followed by Kazakhstan and Canada. The US has only 3% of global reserves.
Most fission reactors utilize
, which is separated from
at some expense. This is called enrichment. The most common separation method is gaseous diffusion of uranium hexafluoride () through membranes. Since
has less mass than
, its molecules have higher average velocity at the same temperature and diffuse faster. Another interesting characteristic of
is that it preferentially absorbs very slow moving neutrons (with energies a fraction of an eV), whereas fission reactions produce fast neutrons with energies in the order of an MeV. To make a self-sustained fission reactor with
, it is thus necessary to slow down (“thermalize”) the neutrons. Water is very effective, since neutrons collide with protons in water molecules and lose energy. shows a schematic of a reactor design, called the pressurized water reactor.
Control rods containing nuclides that very strongly absorb neutrons are used to adjust neutron flux. To produce large power, reactors contain hundreds to thousands of critical masses, and the chain reaction easily becomes self-sustaining, a condition called criticality. Neutron flux should be carefully regulated to avoid an exponential increase in fissions, a condition called supercriticality. Control rods help prevent overheating, perhaps even a meltdown or explosive disassembly. The water that is used to thermalize neutrons, necessary to get them to induce fission in
, and achieve criticality, provides a negative feedback for temperature increases. In case the reactor overheats and boils the water to steam or is breached, the absence of water kills the chain reaction. Considerable heat, however, can still be generated by the reactor’s radioactive fission products. Other safety features, thus, need to be incorporated in the event of a loss of coolant accident, including auxiliary cooling water and pumps.
One nuclide already mentioned is
, which has a 24,120-y half-life and does not exist in nature. Plutonium-239 is manufactured from
in reactors, and it provides an opportunity to utilize the other 99% of natural uranium as an energy source. The following reaction sequence, called breeding, produces
. Breeding begins with neutron capture by
:
Uranium-239 then decays:
Neptunium-239 also decays:
Plutonium-239 builds up in reactor fuel at a rate that depends on the probability of neutron capture by
(all reactor fuel contains more
than
). Reactors designed specifically to make plutonium are called breeder reactors. They seem to be inherently more hazardous than conventional reactors, but it remains unknown whether their hazards can be made economically acceptable. The four reactors at Chernobyl, including the one that was destroyed, were built to breed plutonium and produce electricity. These reactors had a design that was significantly different from the pressurized water reactor illustrated above.
Plutonium-239 has advantages over
as a reactor fuel — it produces more neutrons per fission on average, and it is easier for a thermal neutron to cause it to fission. It is also chemically different from uranium, so it is inherently easier to separate from uranium ore. This means
has a particularly small critical mass, an advantage for nuclear weapons.
### Test Prep for AP Courses
### Section Summary
1. Nuclear fission is a reaction in which a nucleus is split.
2. Fission releases energy when heavy nuclei are split into medium-mass nuclei.
3. Self-sustained fission is possible, because neutron-induced fission also produces neutrons that can induce other fissions, , where and are the two daughter nuclei, or fission fragments, and x is the number of neutrons produced.
4. A minimum mass, called the critical mass, should be present to achieve criticality.
5. More than a critical mass can produce supercriticality.
6. The production of new or different isotopes (especially
) by nuclear transformation is called breeding, and reactors designed for this purpose are called breeder reactors.
### Conceptual Questions
### Problem Exercises
|
# Medical Applications of Nuclear Physics
## Nuclear Weapons
### Learning Objectives
By the end of this section, you will be able to:
1. Discuss different types of fission and thermonuclear bombs.
2. Explain the ill effects of nuclear explosion.
The world was in turmoil when fission was discovered in 1938. The discovery of fission, made by two German physicists, Otto Hahn and Fritz Strassman, was quickly verified by two Jewish refugees from Nazi Germany, Lise Meitner and her nephew Otto Frisch. Fermi, among others, soon found that not only did neutrons induce fission; more neutrons were produced during fission. The possibility of a self-sustained chain reaction was immediately recognized by leading scientists the world over. The enormous energy known to be in nuclei, but considered inaccessible, now seemed to be available on a large scale.
Within months after the announcement of the discovery of fission, Adolf Hitler banned the export of uranium from newly occupied Czechoslovakia. It seemed that the military value of uranium had been recognized in Nazi Germany, and that a serious effort to build a nuclear bomb had begun.
Alarmed scientists, many of them who fled Nazi Germany, decided to take action. None was more famous or revered than Einstein. It was felt that his help was needed to get the American government to make a serious effort at nuclear weapons as a matter of survival. Leo Szilard, an escaped Hungarian physicist, took a draft of a letter to Einstein, who, although pacifistic, signed the final version. The letter was for President Franklin Roosevelt, warning of the German potential to build extremely powerful bombs of a new type. It was sent in August of 1939, just before the German invasion of Poland that marked the start of World War II.
It was not until December 6, 1941, the day before the Japanese attack on Pearl Harbor, that the United States made a massive commitment to building a nuclear bomb. The top secret Manhattan Project was a crash program aimed at beating the Germans. It was carried out in remote locations, such as Los Alamos, New Mexico, whenever possible, and eventually came to cost billions of dollars and employ the efforts of more than 100,000 people. J. Robert Oppenheimer (1904–1967), whose talent and ambitions made him ideal, was chosen to head the project. The first major step was made by Enrico Fermi and his group in December 1942, when they achieved the first self-sustained nuclear reactor. This first “atomic pile”, built in a squash court at the University of Chicago, used carbon blocks to thermalize neutrons. It not only proved that the chain reaction was possible, it began the era of nuclear reactors. Glenn Seaborg, an American chemist and physicist, received the Nobel Prize in physics in 1951 for discovery of several transuranic elements, including plutonium. Carbon-moderated reactors are relatively inexpensive and simple in design and are still used for breeding plutonium, such as at Chernobyl, where two such reactors remain in operation.
Plutonium was recognized as easier to fission with neutrons and, hence, a superior fission material very early in the Manhattan Project. Plutonium availability was uncertain, and so a uranium bomb was developed simultaneously. shows a gun-type bomb, which takes two subcritical uranium masses and blows them together. To get an appreciable yield, the critical mass must be held together by the explosive charges inside the cannon barrel for a few microseconds. Since the buildup of the uranium chain reaction is relatively slow, the device to hold the critical mass together can be relatively simple. Owing to the fact that the rate of spontaneous fission is low, a neutron source is triggered at the same time the critical mass is assembled.
Plutonium’s special properties necessitated a more sophisticated critical mass assembly, shown schematically in . A spherical mass of plutonium is surrounded by shape charges (high explosives that release most of their blast in one direction) that implode the plutonium, crushing it into a smaller volume to form a critical mass. The implosion technique is faster and more effective, because it compresses three-dimensionally rather than one-dimensionally as in the gun-type bomb. Again, a neutron source must be triggered at just the correct time to initiate the chain reaction.
Owing to its complexity, the plutonium bomb needed to be tested before there could be any attempt to use it. On July 16, 1945, the test named Trinity was conducted in the isolated Alamogordo Desert about 200 miles south of Los Alamos (see ). A new age had begun. The yield of this device was about 10 kilotons (kT), the equivalent of 5000 of the largest conventional bombs.
Although Germany surrendered on May 7, 1945, Japan had been steadfastly refusing to surrender for many months, forcing large casualties. Invasion plans by the Allies estimated a million casualties of their own and untold losses of Japanese lives. The bomb was viewed as a way to end the war. The first was a uranium bomb dropped on Hiroshima on August 6. Its yield of about 15 kT destroyed the city and killed an estimated 80,000 people, with 100,000 more being seriously injured (see ). The second was a plutonium bomb dropped on Nagasaki only three days later, on August 9. Its 20 kT yield killed at least 50,000 people, something less than Hiroshima because of the hilly terrain and the fact that it was a few kilometers off target. The Japanese were told that one bomb a week would be dropped until they surrendered unconditionally, which they did on August 14. In actuality, the United States had only enough plutonium for one more and as yet unassembled bomb.
Knowing that fusion produces several times more energy per kilogram of fuel than fission, some scientists pushed the idea of a fusion bomb starting very early on. Calling this bomb the Super, they realized that it could have another advantage over fission—high-energy neutrons would aid fusion, while they are ineffective in fission. Thus the fusion bomb could be virtually unlimited in energy release. The first such bomb was detonated by the United States on October 31, 1952, at Eniwetok Atoll with a yield of 10 megatons (MT), about 670 times that of the fission bomb that destroyed Hiroshima. The USSR followed with a fusion device of their own in August 1953, and a weapons race, beyond the aim of this text to discuss, continued until the end of the Cold War.
shows a simple diagram of how a thermonuclear bomb is constructed. A fission bomb is exploded next to fusion fuel in the solid form of lithium deuteride. Before the shock wave blows it apart, rays heat and compress the fuel, and neutrons create tritium through the reaction . Additional fusion and fission fuels are enclosed in a dense shell of . The shell reflects some of the neutrons back into the fuel to enhance its fusion, but at high internal temperatures fast neutrons are created that also cause the plentiful and inexpensive to fission, part of what allows thermonuclear bombs to be so large.
The energy yield and the types of energy produced by nuclear bombs can be varied. Energy yields in current arsenals range from about 0.1 kT to 20 MT, although the USSR once detonated a 67 MT device. Nuclear bombs differ from conventional explosives in more than size. shows the approximate fraction of energy output in various forms for conventional explosives and for two types of nuclear bombs. Nuclear bombs put a much larger fraction of their output into thermal energy than do conventional bombs, which tend to concentrate the energy in blast. Another difference is the immediate and residual radiation energy from nuclear weapons. This can be adjusted to put more energy into radiation (the so-called neutron bomb) so that the bomb can be used to irradiate advancing troops without killing friendly troops with blast and heat.
At its peak in 1986, the combined arsenals of the United States and the Soviet Union totaled about 60,000 nuclear warheads. In addition, the British, French, and Chinese each have several hundred bombs of various sizes, and a few other countries have a small number. Nuclear weapons are generally divided into two categories. Strategic nuclear weapons are those intended for military targets, such as bases and missile complexes, and moderate to large cities. There were about 20,000 strategic weapons in 1988. Tactical weapons are intended for use in smaller battles. Since the collapse of the Soviet Union and the end of the Cold War in 1989, most of the 32,000 tactical weapons (including Cruise missiles, artillery shells, land mines, torpedoes, depth charges, and backpacks) have been demobilized, and parts of the strategic weapon systems are being dismantled with warheads and missiles being disassembled. According to the Treaty of Moscow of 2002, Russia and the United States have been required to reduce their strategic nuclear arsenal down to about 2000 warheads each.
A few small countries have built or are capable of building nuclear bombs, as are some terrorist groups. Two things are needed—a minimum level of technical expertise and sufficient fissionable material. The first is easy. Fissionable material is controlled but is also available. There are international agreements and organizations that attempt to control nuclear proliferation, but it is increasingly difficult given the availability of fissionable material and the small amount needed for a crude bomb. The production of fissionable fuel itself is technologically difficult. However, the presence of large amounts of such material worldwide, though in the hands of a few, makes control and accountability crucial.
### Section Summary
1. There are two types of nuclear weapons—fission bombs use fission alone, whereas thermonuclear bombs use fission to ignite fusion.
2. Both types of weapons produce huge numbers of nuclear reactions in a very short time.
3. Energy yields are measured in kilotons or megatons of equivalent conventional explosives and range from 0.1 kT to more than 20 MT.
4. Nuclear bombs are characterized by far more thermal output and nuclear radiation output than conventional explosives.
### Conceptual Questions
### Problems & Exercises
|
# Particle Physics
## Connection for AP® Courses
Continuing to use ideas that would be familiar to the ancient Greeks, we look for smaller and smaller structures in nature, hoping ultimately to find and understand the most fundamental building blocks. Atomic physics deals with the smallest units of elements and compounds. Through the study of atomic physics, we have found a relatively small number of atoms with systematic properties that explain a tremendous range of phenomena.
Nuclear physics is concerned with the nuclei of atoms and their substructures, supporting Big Idea 1, that systems have internal structure. Furthermore, the internal structure of a system determines many properties of the system (Enduring Understanding 1.A). Here, a smaller number of components—the proton and neutron—make up all nuclei. Neutrons and protons are composed of quarks. Electrons, neutrinos, photons, and quarks are examples of fundamental particles. The positive electric charge on protons and neutral charge on neutrons result from their quark compositions (Essential Knowledge 1.A.2).
This chapter divides elementary particles into fundamental particles as objects that do not have internal structure and composed particles whose properties are defined by their substructures (Essential Knowledge 1.A.2). The magnetic dipole moment, related to the properties of spin (angular momentum) and charge, is an intrinsic property of some fundamental particles such as the electron (Essential Knowledge 1.E.6). This property is the fundamental source of magnetic behavior in matter (Enduring Understanding 1.E).
Exploring the systematic behavior of interactions among particles has revealed even more about matter, forces, and energy. Mass and electric charge are properties of matter that are conserved (Enduring Understanding 1.C). The total energy of the system is also conserved (Enduring Understanding 5.B). In quantum mechanical systems, mass is actually part of the internal energy of an object or system (Essential Knowledge 5.B.11). It has been discovered experimentally that, due to certain interactions between systems, mass can be converted to energy and energy can be converted to mass (Essential Knowledge 1.C.4, Essential Knowledge 4.C.4), supporting Big Idea 4. These process can also lead to changes in the total energy of the system (Enduring Understanding 4.C).
Particle physics deals with the substructures of atoms and nuclei and is particularly aimed at finding those truly fundamental particles that have no further substructure. In general, any system can be viewed as a collection of objects, where objects do not have internal structure (Essential Knowledge 1.A.1). Just as in atomic and nuclear physics, we have found a complex array of particles and properties with systematic characteristics analogous to the periodic table and the chart of nuclides. We have discovered that changes in the systems are constrained by the conservation laws, supporting Big Idea 5. In the case of elementary particles, these conservation laws include mass-energy conservation and conservation of electric charge (Enduring Understanding 5.C). Electric charge is conserved in elementary particle reactions, even when elementary particles are produced or destroyed (Essential Knowledge 5.C.1).
The chapter revisits the ideas of fundamental forces (Enduring Understanding 3.G) and their fields in connection to elementary particles. This supports Big Ideas 2 and 3, because these particles are carriers of a specific force that provides existence of the field in space (Enduring Understanding 2.A). The field is simply the macroscopic outcome of all these force-carrying particles. The approximate relative strength and range of the gravitational force (Essential Knowledge 3.G.1), electromagnetic force (Essential Knowledge 3.G.2), strong force (Essential Knowledge 3.G.3) and weak force are considered in relation to the properties of their carrier particles. The details of these considerations go beyond AP® expectations.
An underlying structure is apparent, and there is some reason to think that we are finding particles that have no substructure. Of course, we have been in similar situations before. For example, atoms were once thought to be the ultimate substructure. Perhaps we will find deeper and deeper structures and never come to an ultimate substructure. We may never really know, as indicated in .
This chapter covers the basics of particle physics as we know it today. An amazing convergence of topics is evolving in modern particle physics. We find that some particles are intimately related to forces, and that nature on the smallest scale may have a defining influence on the large-scale character of the universe. The study of particle physics is an adventure beyond even the best science fiction, because it is not only fantastic, it is real.
Big Idea 1 Objects and systems have properties such as mass and charge. Systems may have internal structure.
Enduring Understanding 1.A The internal structure of a system determines many properties of the system.
Essential Knowledge 1.A.1 A system is an object or a collection of objects. Objects are treated as having no internal structure.
Essential Knowledge 1.A.2 Fundamental particles have no internal structure.
Enduring Understanding 1.C Objects and systems have properties of inertial mass and gravitational mass that are experimentally verified to be the same and that satisfy conservation principles.
Essential Knowledge 1.C.4 In certain processes, mass can be converted to energy and energy can be converted to mass according to E = mc2, the equation derived from the theory of special relativity.
Enduring Understanding 1.E Materials have many macroscopic properties that result from the arrangement and interactions of the atoms and molecules that make up the material.
Essential Knowledge 1.E.6 Matter has a property called magnetic dipole moment.
a. Magnetic dipole moment is a fundamental source of magnetic behavior of matter and an intrinsic property of some fundamental particles such as the electron.
Big Idea 2 Fields existing in space can be used to explain interactions.
Enduring Understanding 2.A A field associates a value of some physical quantity with every point in space. Field models are useful for describing interactions that occur at a distance (long-range forces) as well as a variety of other physical phenomena.
Big Idea 3 The interactions of an object with other objects can be described by forces.
Enduring Understanding 3.G Certain types of forces are considered fundamental.
Essential Knowledge 3.G.1: Gravitational forces are exerted at all scales and dominate at the largest distance and mass scales.
Essential Knowledge 3.G.2 Electromagnetic forces are exerted at all scales and can dominate at the human scale.
Essential Knowledge 3.G.3 The strong force is exerted at nuclear scales and dominates the interactions of nucleons.
Big Idea 4 Interactions between systems can result in changes in those systems.
Enduring Understanding 4.C Interactions with other objects or systems can change the total energy of a system.
Essential Knowledge 4.C.4 Mass can be converted into energy and energy can be converted into mass.
Big Idea 5. Changes that occur as a result of interactions are constrained by conservation laws.
Enduring Understanding 5.B The energy of a system is conserved.
Essential Knowledge 5.B.11 Beyond the classical approximation, mass is actually part of the internal energy of an object or system with E = mc2.
Enduring Understanding 5.C The electric charge of a system is conserved.
Essential Knowledge 5.C.1 Electric charge is conserved in nuclear and elementary particle reactions, even when elementary particles are produced or destroyed. Examples should include equations representing nuclear decay. |
# Particle Physics
## The Yukawa Particle and the Heisenberg Uncertainty Principle Revisited
### Learning Objectives
By the end of this section, you will be able to:
1. Define Yukawa particle.
2. State the Heisenberg uncertainty principle.
3. Describe pion.
4. Estimate the mass of a pion.
5. Explain meson.
Particle physics as we know it today began with the ideas of Hideki Yukawa in 1935. Physicists had long been concerned with how forces are transmitted, finding the concept of fields, such as electric and magnetic fields to be very useful. A field surrounds an object and carries the force exerted by the object through space. Yukawa was interested in the strong nuclear force in particular and found an ingenious way to explain its short range. His idea is a blend of particles, forces, relativity, and quantum mechanics that is applicable to all forces. Yukawa proposed that force is transmitted by the exchange of particles (called carrier particles). The field consists of these carrier particles.
Specifically for the strong nuclear force, Yukawa proposed that a previously unknown particle, now called a pion, is exchanged between nucleons, transmitting the force between them. illustrates how a pion would carry a force between a proton and a neutron. The pion has mass and can only be created by violating the conservation of mass-energy. This is allowed by the Heisenberg uncertainty principle if it occurs for a sufficiently short period of time. As discussed in Probability: The Heisenberg Uncertainty Principle the Heisenberg uncertainty principle relates the uncertainties in energy and in time by
where is Planck’s constant. Therefore, conservation of mass-energy can be violated by an amount for a time in which time no process can detect the violation. This allows the temporary creation of a particle of mass , where . The larger the mass and the greater the , the shorter is the time it can exist. This means the range of the force is limited, because the particle can only travel a limited distance in a finite amount of time. In fact, the maximum distance is , where c is the speed of light. The pion must then be captured and, thus, cannot be directly observed because that would amount to a permanent violation of mass-energy conservation. Such particles (like the pion above) are called virtual particles, because they cannot be directly observed but their effects can be directly observed. Realizing all this, Yukawa used the information on the range of the strong nuclear force to estimate the mass of the pion, the particle that carries it. The steps of his reasoning are approximately retraced in the following worked example:
Yukawa’s proposal of particle exchange as the method of force transfer is intriguing. But how can we verify his proposal if we cannot observe the virtual pion directly? If sufficient energy is in a nucleus, it would be possible to free the pion—that is, to create its mass from external energy input. This can be accomplished by collisions of energetic particles with nuclei, but energies greater than 100 MeV are required to conserve both energy and momentum. In 1947, pions were observed in cosmic-ray experiments, which were designed to supply a small flux of high-energy protons that may collide with nuclei. Soon afterward, accelerators of sufficient energy were creating pions in the laboratory under controlled conditions. Three pions were discovered, two with charge and one neutral, and given the symbols , respectively. The masses of and are identical at , whereas has a mass of . These masses are close to the predicted value of and, since they are intermediate between electron and nucleon masses, the particles are given the name meson (now an entire class of particles, as we shall see in Particles, Patterns, and Conservation Laws).
The pions, or -mesons as they are also called, have masses close to those predicted and feel the strong nuclear force. Another previously unknown particle, now called the muon, was discovered during cosmic-ray experiments in 1936 (one of its discoverers, Seth Neddermeyer, also originated the idea of implosion for plutonium bombs). Since the mass of a muon is around , at first it was thought to be the particle predicted by Yukawa. But it was soon realized that muons do not feel the strong nuclear force and could not be Yukawa’s particle. Their role was unknown, causing the respected physicist I. I. Rabi to comment, “Who ordered that?” This remains a valid question today. We have discovered hundreds of subatomic particles; the roles of some are only partially understood. But there are various patterns and relations to forces that have led to profound insights into nature’s secrets.
### Summary
1. Yukawa’s idea of virtual particle exchange as the carrier of forces is crucial, with virtual particles being formed in temporary violation of the conservation of mass-energy as allowed by the Heisenberg uncertainty principle.
### Problems & Exercises
|
# Particle Physics
## The Four Basic Forces
### Learning Objectives
By the end of this section, you will be able to:
1. State the four basic forces.
2. Explain the Feynman diagram for the exchange of a virtual photon between two positive charges.
3. Define QED.
4. Describe the Feynman diagram for the exchange of a between a proton and a neutron.
As first discussed in Problem-Solving Strategies and mentioned at various points in the text since then, there are only four distinct basic forces in all of nature. This is a remarkably small number considering the myriad phenomena they explain. Particle physics is intimately tied to these four forces. Certain fundamental particles, called carrier particles, carry these forces, and all particles can be classified according to which of the four forces they feel. The table given below summarizes important characteristics of the four basic forces.
Although these four forces are distinct and differ greatly from one another under all but the most extreme circumstances, we can see similarities among them. (In GUTs: the Unification of Forces, we will discuss how the four forces may be different manifestations of a single unified force.) Perhaps the most important characteristic among the forces is that they are all transmitted by the exchange of a carrier particle, exactly like what Yukawa had in mind for the strong nuclear force. Each carrier particle is a virtual particle—it cannot be directly observed while transmitting the force. shows the exchange of a virtual photon between two positive charges. The photon cannot be directly observed in its passage, because this would disrupt it and alter the force.
shows a way of graphing the exchange of a virtual photon between two positive charges. This graph of time versus position is called a Feynman diagram, after the brilliant American physicist Richard Feynman (1918–1988) who developed it.
is a Feynman diagram for the exchange of a virtual pion between a proton and a neutron representing the same interaction as in . Feynman diagrams are not only a useful tool for visualizing interactions at the quantum mechanical level, they are also used to calculate details of interactions, such as their strengths and probability of occurring. Feynman was one of the theorists who developed the field of quantum electrodynamics (QED), which is the quantum mechanics of electromagnetism. QED has been spectacularly successful in describing electromagnetic interactions on the submicroscopic scale. Feynman was an inspiring teacher, had a colorful personality, and made a profound impact on generations of physicists. He shared the 1965 Nobel Prize with Julian Schwinger and S. I. Tomonaga for work in QED with its deep implications for particle physics.
Why is it that particles called gluons are listed as the carrier particles for the strong nuclear force when, in The Yukawa Particle and the Heisenberg Uncertainty Principle Revisited, we saw that pions apparently carry that force? The answer is that pions are exchanged but they have a substructure and, as we explore it, we find that the strong force is actually related to the indirectly observed but more fundamental gluons. In fact, all the carrier particles are thought to be fundamental in the sense that they have no substructure. Another similarity among carrier particles is that they are all bosons (first mentioned in Patterns in Spectra Reveal More Quantization), having integral intrinsic spins.
There is a relationship between the mass of the carrier particle and the range of the force. The photon is massless and has energy. So, the existence of (virtual) photons is possible only by virtue of the Heisenberg uncertainty principle and can travel an unlimited distance. Thus, the range of the electromagnetic force is infinite. This is also true for gravity. It is infinite in range because its carrier particle, the graviton, has zero rest mass. (Gravity is the most difficult of the four forces to understand on a quantum scale because it affects the space and time in which the others act. But gravity is so weak that its effects are extremely difficult to observe quantum mechanically. We shall explore it further in General Relativity and Quantum Gravity). The , and particles that carry the weak nuclear force have mass, accounting for the very short range of this force. In fact, the , and are about 1000 times more massive than pions, consistent with the fact that the range of the weak nuclear force is about 1/1000 that of the strong nuclear force. Gluons are actually massless, but since they act inside massive carrier particles like pions, the strong nuclear force is also short ranged.
The relative strengths of the forces given in the are those for the most common situations. When particles are brought very close together, the relative strengths change, and they may become identical at extremely close range. As we shall see in GUTs: the Unification of Forces, carrier particles may be altered by the energy required to bring particles very close together—in such a manner that they become identical.
### Test Prep for AP Courses
### Summary
1. The four basic forces and their carrier particles are summarized in the .
2. Feynman diagrams are graphs of time versus position and are highly useful pictorial representations of particle processes.
3. The theory of electromagnetism on the particle scale is called quantum electrodynamics (QED).
### Problems & Exercises
|
# Particle Physics
## Accelerators Create Matter from Energy
### Learning Objectives
By the end of this section, you will be able to:
1. State the principle of a cyclotron.
2. Explain the principle of a synchrotron.
3. Describe the voltage needed by an accelerator between accelerating tubes.
4. State Fermilab’s accelerator principle.
Before looking at all the particles we now know about, let us examine some of the machines that created them. The fundamental process in creating previously unknown particles is to accelerate known particles, such as protons or electrons, and direct a beam of them toward a target. Collisions with target nuclei provide a wealth of information, such as information obtained by Rutherford using energetic helium nuclei from natural radiation. But if the energy of the incoming particles is large enough, new matter is sometimes created in the collision. The more energy input or , the more matter can be created, since . Limitations are placed on what can occur by known conservation laws, such as conservation of mass-energy, momentum, and charge. Even more interesting are the unknown limitations provided by nature. Some expected reactions do occur, while others do not, and still other unexpected reactions may appear. New laws are revealed, and the vast majority of what we know about particle physics has come from accelerator laboratories. It is the particle physicist’s favorite indoor sport, which is partly inspired by theory.
### Early Accelerators
An early accelerator is a relatively simple, large-scale version of the electron gun. The Van de Graaff (named after the Dutch physicist), which you have likely seen in physics demonstrations, is a small version of the ones used for nuclear research since their invention for that purpose in 1932. For more, see . These machines are electrostatic, creating potentials as great as 50 MV, and are used to accelerate a variety of nuclei for a range of experiments. Energies produced by Van de Graaffs are insufficient to produce new particles, but they have been instrumental in exploring several aspects of the nucleus. Another, equally famous, early accelerator is the cyclotron, invented in 1930 by the American physicist, E. O. Lawrence (1901–1958). For a visual representation with more detail, see . Cyclotrons use fixed-frequency alternating electric fields to accelerate particles. The particles spiral outward in a magnetic field, making increasingly larger radius orbits during acceleration. This clever arrangement allows the successive addition of electric potential energy and so greater particle energies are possible than in a Van de Graaff. Lawrence was involved in many early discoveries and in the promotion of physics programs in American universities. He was awarded the 1939 Nobel Prize in Physics for the cyclotron and nuclear activations, and he has an element and two major laboratories named for him.
A synchrotron is a version of a cyclotron in which the frequency of the alternating voltage and the magnetic field strength are increased as the beam particles are accelerated. Particles are made to travel the same distance in a shorter time with each cycle in fixed-radius orbits. A ring of magnets and accelerating tubes, as shown in , are the major components of synchrotrons. Accelerating voltages are synchronized (i.e., occur at the same time) with the particles to accelerate them, hence the name. Magnetic field strength is increased to keep the orbital radius constant as energy increases. High-energy particles require strong magnetic fields to steer them, so superconducting magnets are commonly employed. Still limited by achievable magnetic field strengths, synchrotrons need to be very large at very high energies, since the radius of a high-energy particle’s orbit is very large. Radiation caused by a magnetic field accelerating a charged particle perpendicular to its velocity is called synchrotron radiation in honor of its importance in these machines. Synchrotron radiation has a characteristic spectrum and polarization, and can be recognized in cosmic rays, implying large-scale magnetic fields acting on energetic and charged particles in deep space. Synchrotron radiation produced by accelerators is sometimes used as a source of intense energetic electromagnetic radiation for research purposes.
### Modern Behemoths and Colliding Beams
Physicists have built ever-larger machines, first to reduce the wavelength of the probe and obtain greater detail, then to put greater energy into collisions to create new particles. Each major energy increase brought new information, sometimes producing spectacular progress, motivating the next step. One major innovation was driven by the desire to create more massive particles. Since momentum needs to be conserved in a collision, the particles created by a beam hitting a stationary target should recoil. This means that part of the energy input goes into recoil kinetic energy, significantly limiting the fraction of the beam energy that can be converted into new particles. One solution to this problem is to have head-on collisions between particles moving in opposite directions. Colliding beams are made to meet head-on at points where massive detectors are located. Since the total incoming momentum is zero, it is possible to create particles with momenta and kinetic energies near zero. Particles with masses equivalent to twice the beam energy can thus be created. Another innovation is to create the antimatter counterpart of the beam particle, which thus has the opposite charge and circulates in the opposite direction in the same beam pipe. For a schematic representation, see .
Detectors capable of finding the new particles in the spray of material that emerges from colliding beams are as impressive as the accelerators. While the Fermilab Tevatron had proton and antiproton beam energies of about 1 TeV, so that it can create particles up to , the Large Hadron Collider (LHC) at the European Center for Nuclear Research (CERN) has achieved beam energies of 3.5 TeV, so that it has a 7-TeV collision energy; CERN hopes to double the beam energy in 2014. The now-canceled Superconducting Super Collider was being constructed in Texas with a design energy of 20 TeV to give a 40-TeV collision energy. It was to be an oval 30 km in diameter. Its cost as well as the politics of international research funding led to its demise.
In addition to the large synchrotrons that produce colliding beams of protons and antiprotons, there are other large electron-positron accelerators. The oldest of these was a straight-line or linear accelerator, called the Stanford Linear Accelerator (SLAC), which accelerated particles up to 50 GeV as seen in . Positrons created by the accelerator were brought to the same energy and collided with electrons in specially designed detectors. Linear accelerators use accelerating tubes similar to those in synchrotrons, but aligned in a straight line. This helps eliminate synchrotron radiation losses, which are particularly severe for electrons made to follow curved paths. CERN had an electron-positron collider appropriately called the Large Electron-Positron Collider (LEP), which accelerated particles to 100 GeV and created a collision energy of 200 GeV. It was 8.5 km in diameter, while the SLAC machine was 3.2 km long.
### Test Prep for AP Courses
### Summary
1. A variety of particle accelerators have been used to explore the nature of subatomic particles and to test predictions of particle theories.
2. Modern accelerators used in particle physics are either large synchrotrons or linear accelerators.
3. The use of colliding beams makes much greater energy available for the creation of particles, and collisions between matter and antimatter allow a greater range of final products.
### Conceptual Questions
### Problems & Exercises
|
# Particle Physics
## Particles, Patterns, and Conservation Laws
### Learning Objectives
By the end of this section, you will be able to:
1. Define matter and antimatter.
2. Outline the differences between hadrons and leptons.
3. State the differences between mesons and baryons.
In the early 1930s only a small number of subatomic particles were known to exist—the proton, neutron, electron, photon and, indirectly, the neutrino. Nature seemed relatively simple in some ways, but mysterious in others. Why, for example, should the particle that carries positive charge be almost 2000 times as massive as the one carrying negative charge? Why does a neutral particle like the neutron have a magnetic moment? Does this imply an internal structure with a distribution of moving charges? Why is it that the electron seems to have no size other than its wavelength, while the proton and neutron are about 1 fermi in size? So, while the number of known particles was small and they explained a great deal of atomic and nuclear phenomena, there were many unexplained phenomena and hints of further substructures.
Things soon became more complicated, both in theory and in the prediction and discovery of new particles. In 1928, the British physicist P.A.M. Dirac (see ) developed a highly successful relativistic quantum theory that laid the foundations of quantum electrodynamics (QED). His theory, for example, explained electron spin and magnetic moment in a natural way. But Dirac’s theory also predicted negative energy states for free electrons. By 1931, Dirac, along with Oppenheimer, realized this was a prediction of positively charged electrons (or positrons). In 1932, American physicist Carl Anderson discovered the positron in cosmic ray studies. The positron, or , is the same particle as emitted in decay and was the first antimatter that was discovered. In 1935, Yukawa predicted pions as the carriers of the strong nuclear force, and they were eventually discovered. Muons were discovered in cosmic ray experiments in 1937, and they seemed to be heavy, unstable versions of electrons and positrons. After World War II, accelerators energetic enough to create these particles were built. Not only were predicted and known particles created, but many unexpected particles were observed. Initially called elementary particles, their numbers proliferated to dozens and then hundreds, and the term “particle zoo” became the physicist’s lament at the lack of simplicity. But patterns were observed in the particle zoo that led to simplifying ideas such as quarks, as we shall soon see.
### Matter and Antimatter
The positron was only the first example of antimatter. Every particle in nature has an antimatter counterpart, although some particles, like the photon, are their own antiparticles. Antimatter has charge opposite to that of matter (for example, the positron is positive while the electron is negative) but is nearly identical otherwise, having the same mass, intrinsic spin, half-life, and so on. When a particle and its antimatter counterpart interact, they annihilate one another, usually totally converting their masses to pure energy in the form of photons as seen in . Neutral particles, such as neutrons, have neutral antimatter counterparts, which also annihilate when they interact. Certain neutral particles are their own antiparticle and live correspondingly short lives. For example, the neutral pion is its own antiparticle and has a half-life about shorter than and , which are each other’s antiparticles. Without exception, nature is symmetric—all particles have antimatter counterparts. For example, antiprotons and antineutrons were first created in accelerator experiments in 1956 and the antiproton is negative. Antihydrogen atoms, consisting of an antiproton and antielectron, were observed in 1995 at CERN, too. It is possible to contain large-scale antimatter particles such as antiprotons by using electromagnetic traps that confine the particles within a magnetic field so that they don't annihilate with other particles. However, particles of the same charge repel each other, so the more particles that are contained in a trap, the more energy is needed to power the magnetic field that contains them. It is not currently possible to store a significant quantity of antiprotons. At any rate, we now see that negative charge is associated with both low-mass (electrons) and high-mass particles (antiprotons) and the apparent asymmetry is not there. But this knowledge does raise another question—why is there such a predominance of matter and so little antimatter? Possible explanations emerge later in this and the next chapter.
### Hadrons and Leptons
Particles can also be revealingly grouped according to what forces they feel between them. All particles (even those that are massless) are affected by gravity, since gravity affects the space and time in which particles exist. All charged particles are affected by the electromagnetic force, as are neutral particles that have an internal distribution of charge (such as the neutron with its magnetic moment). Special names are given to particles that feel the strong and weak nuclear forces. Hadrons are particles that feel the strong nuclear force, whereas leptons are particles that do not. The proton, neutron, and the pions are examples of hadrons. The electron, positron, muons, and neutrinos are examples of leptons, the name meaning low mass. Leptons feel the weak nuclear force. In fact, all particles feel the weak nuclear force. This means that hadrons are distinguished by being able to feel both the strong and weak nuclear forces.
lists the characteristics of some of the most important subatomic particles, including the directly observed carrier particles for the electromagnetic and weak nuclear forces, all leptons, and some hadrons. Several hints related to an underlying substructure emerge from an examination of these particle characteristics. Note that the carrier particles are called gauge bosons. First mentioned in Patterns in Spectra Reveal More Quantization, a boson is a particle with zero or an integer value of intrinsic spin (such as ), whereas a fermion is a particle with a half-integer value of intrinsic spin (). Fermions obey the Pauli exclusion principle whereas bosons do not. All the known and conjectured carrier particles are bosons.
All known leptons are listed in the table given above. There are only six leptons (and their antiparticles), and they seem to be fundamental in that they have no apparent underlying structure. Leptons have no discernible size other than their wavelength, so that we know they are pointlike down to about . The leptons fall into three families, implying three conservation laws for three quantum numbers. One of these was known from decay, where the existence of the electron’s neutrino implied that a new quantum number, called the electron family number is conserved. Thus, in decay, an antielectron’s neutrino must be created with when an electron with is created, so that the total remains 0 as it was before decay.
Once the muon was discovered in cosmic rays, its decay mode was found to be
which implied another “family” and associated conservation principle. The particle is a muon’s neutrino, and it is created to conserve muon family number. So muons are leptons with a family of their own, and conservation of total also seems to be obeyed in many experiments.
More recently, a third lepton family was discovered when particles were created and observed to decay in a manner similar to muons. One principal decay mode is
Conservation of total seems to be another law obeyed in many experiments. In fact, particle experiments have found that lepton family number is not universally conserved, due to neutrino “oscillations,” or transformations of neutrinos from one family type to another.
### Mesons and Baryons
Now, note that the hadrons in the table given above are divided into two subgroups, called mesons (originally for medium mass) and baryons (the name originally meaning large mass). The division between mesons and baryons is actually based on their observed decay modes and is not strictly associated with their masses. Mesons are hadrons that can decay to leptons and leave no hadrons, which implies that mesons are not conserved in number. Baryons are hadrons that always decay to another baryon. A new physical quantity called baryon number seems to always be conserved in nature and is listed for the various particles in the table given above. Mesons and leptons have so that they can decay to other particles with . But baryons have if they are matter, and if they are antimatter. The conservation of total baryon number is a more general rule than first noted in nuclear physics, where it was observed that the total number of nucleons was always conserved in nuclear reactions and decays. That rule in nuclear physics is just one consequence of the conservation of the total baryon number.
### Forces, Reactions, and Reaction Rates
The forces that act between particles regulate how they interact with other particles. For example, pions feel the strong force and do not penetrate as far in matter as do muons, which do not feel the strong force. (This was the way those who discovered the muon knew it could not be the particle that carries the strong force—its penetration or range was too great for it to be feeling the strong force.) Similarly, reactions that create other particles, like cosmic rays interacting with nuclei in the atmosphere, have greater probability if they are caused by the strong force than if they are caused by the weak force. Such knowledge has been useful to physicists while analyzing the particles produced by various accelerators.
The forces experienced by particles also govern how particles interact with themselves if they are unstable and decay. For example, the stronger the force, the faster they decay and the shorter is their lifetime. An example of a nuclear decay via the strong force is
with a lifetime of about . The neutron is a good example of decay via the weak force. The process has a longer lifetime of 882 s. The weak force causes this decay, as it does all decay. An important clue that the weak force is responsible for decay is the creation of leptons, such as and . None would be created if the strong force was responsible, just as no leptons are created in the decay of . The systematics of particle lifetimes is a little simpler than nuclear lifetimes when hundreds of particles are examined (not just the ones in the table given above). Particles that decay via the weak force have lifetimes mostly in the range of to s, whereas those that decay via the strong force have lifetimes mostly in the range of to s. Turning this around, if we measure the lifetime of a particle, we can tell if it decays via the weak or strong force.
Yet another quantum number emerges from decay lifetimes and patterns. Note that the particles , and decay with lifetimes on the order of s (the exception is , whose short lifetime is explained by its particular quark substructure.), implying that their decay is caused by the weak force alone, although they are hadrons and feel the strong force. The decay modes of these particles also show patterns—in particular, certain decays that should be possible within all the known conservation laws do not occur. Whenever something is possible in physics, it will happen. If something does not happen, it is forbidden by a rule. All this seemed strange to those studying these particles when they were first discovered, so they named a new quantum number strangeness, given the symbol in the table given above. The values of strangeness assigned to various particles are based on the decay systematics. It is found that strangeness is conserved by the strong force, which governs the production of most of these particles in accelerator experiments. However, strangeness is . This conclusion is reached from the fact that particles that have long lifetimes decay via the weak force and do not conserve strangeness. All of this also has implications for the carrier particles, since they transmit forces and are thus involved in these decays.
There are hundreds of particles, all hadrons, not listed in , most of which have shorter lifetimes. The systematics of those particle lifetimes, their production probabilities, and decay products are completely consistent with the conservation laws noted for lepton families, baryon number, and strangeness, but they also imply other quantum numbers and conservation laws. There are a finite, and in fact relatively small, number of these conserved quantities, however, implying a finite set of substructures. Additionally, some of these short-lived particles resemble the excited states of other particles, implying an internal structure. All of this jigsaw puzzle can be tied together and explained relatively simply by the existence of fundamental substructures. Leptons seem to be fundamental structures. Hadrons seem to have a substructure called quarks. Quarks: Is That All There Is? explores the basics of the underlying quark building blocks.
### Test Prep for AP Courses
### Summary
1. All particles of matter have an antimatter counterpart that has the opposite charge and certain other quantum numbers as seen in . These matter-antimatter pairs are otherwise very similar but will annihilate when brought together. Known particles can be divided into three major groups—leptons, hadrons, and carrier particles (gauge bosons).
2. Leptons do not feel the strong nuclear force and are further divided into three groups—electron family designated by electron family number ; muon family designated by muon family number ; and tau family designated by tau family number . The family numbers are not universally conserved due to neutrino oscillations.
3. Hadrons are particles that feel the strong nuclear force and are divided into baryons, with the baryon family number being conserved, and mesons.
### Conceptual Questions
### Problems & Exercises
|
# Particle Physics
## Quarks: Is That All There Is?
### Learning Objectives
By the end of this section, you will be able to:
1. Define fundamental particle.
2. Describe quark and antiquark.
3. List the flavors of quark.
4. Outline the quark composition of hadrons.
5. Determine quantum numbers from quark composition.
Quarks have been mentioned at various points in this text as fundamental building blocks and members of the exclusive club of truly elementary particles. Note that an elementary or fundamental particle has no substructure (it is not made of other particles) and has no finite size other than its wavelength. This does not mean that fundamental particles are stable—some decay, while others do not. Keep in mind that all leptons seem to be fundamental, whereasno hadrons are fundamental. There is strong evidence that quarks are the fundamental building blocks of hadrons as seen in . Quarks are the second group of fundamental particles (leptons are the first). The third and perhaps final group of fundamental particles is the carrier particles for the four basic forces. Leptons, quarks, and carrier particles may be all there is. In this module we will discuss the quark substructure of hadrons and its relationship to forces as well as indicate some remaining questions and problems.
### Conception of Quarks
Quarks were first proposed independently by American physicists Murray Gell-Mann and George Zweig in 1963. Their quaint name was taken by Gell-Mann from a James Joyce novel—Gell-Mann was also largely responsible for the concept and name of strangeness. (Whimsical names are common in particle physics, reflecting the personalities of modern physicists.) Originally, three quark types—or flavors—were proposed to account for the then-known mesons and baryons. These quark flavors are named up (u), down (d), and strange (s). All quarks have half-integral spin and are thus fermions. All mesons have integral spin while all baryons have half-integral spin. Therefore, mesons should be made up of an even number of quarks while baryons need to be made up of an odd number of quarks. shows the quark substructure of the proton, neutron, and two pions. The most radical proposal by Gell-Mann and Zweig is the fractional charges of quarks, which are and , whereas all directly observed particles have charges that are integral multiples of . Note that the fractional value of the quark does not violate the fact that the e is the smallest unit of charge that is observed, because a free quark cannot exist. lists characteristics of the six quark flavors that are now thought to exist. Discoveries made since 1963 have required extra quark flavors, which are divided into three families quite analogous to leptons.
### How Does it Work?
To understand how these quark substructures work, let us specifically examine the proton, neutron, and the two pions pictured in before moving on to more general considerations. First, the proton p is composed of the three quarks uud, so that its total charge is , as expected. With the spins aligned as in the figure, the proton’s intrinsic spin is , also as expected. Note that the spins of the up quarks are aligned, so that they would be in the same state except that they have different colors (another quantum number to be elaborated upon a little later). Quarks obey the Pauli exclusion principle. Similar comments apply to the neutron n, which is composed of the three quarks udd. Note also that the neutron is made of charges that add to zero but move internally, producing its well-known magnetic moment. When the neutron decays, it does so by changing the flavor of one of its quarks. Writing neutron decay in terms of quarks,
We see that this is equivalent to a down quark changing flavor to become an up quark:
This is an example of the general fact that the weak nuclear force can change the flavor of a quark. By general, we mean that any quark can be converted to any other (change flavor) by the weak nuclear force. Not only can we get , we can also get . Furthermore, the strange quark can be changed by the weak force, too, making and possible. This explains the violation of the conservation of strangeness by the weak force noted in the preceding section. Another general fact is that the strong nuclear force cannot change the flavor of a quark.
Again, from , we see that the meson (one of the three pions) is composed of an up quark plus an antidown quark, or . Its total charge is thus , as expected. Its baryon number is 0, since it has a quark and an antiquark with baryon numbers . The half-life is relatively long since, although it is composed of matter and antimatter, the quarks are different flavors and the weak force should cause the decay by changing the flavor of one into that of the other. The spins of the and quarks are antiparallel, enabling the pion to have spin zero, as observed experimentally. Finally, the meson shown in is the antiparticle of the meson, and it is composed of the corresponding quark antiparticles. That is, the meson is , while the meson is . These two pions annihilate each other quickly, because their constituent quarks are each other’s antiparticles.
Two general rules for combining quarks to form hadrons are:
1. Baryons are composed of three quarks, and antibaryons are composed of three antiquarks.
2. Mesons are combinations of a quark and an antiquark.
One of the clever things about this scheme is that only integral charges result, even though the quarks have fractional charge.
### All Combinations are Possible
All quark combinations are possible. lists some of these combinations. When Gell-Mann and Zweig proposed the original three quark flavors, particles corresponding to all combinations of those three had not been observed. The pattern was there, but it was incomplete—much as had been the case in the periodic table of the elements and the chart of nuclides. The particle, in particular, had not been discovered but was predicted by quark theory. Its combination of three strange quarks, , gives it a strangeness of (see ) and other predictable characteristics, such as spin, charge, approximate mass, and lifetime. If the quark picture is complete, the should exist. It was first observed in 1964 at Brookhaven National Laboratory and had the predicted characteristics as seen in . The discovery of the was convincing indirect evidence for the existence of the three original quark flavors and boosted theoretical and experimental efforts to further explore particle physics in terms of quarks.
### Now, Let Us Talk About Direct Evidence
At first, physicists expected that, with sufficient energy, we should be able to free quarks and observe them directly. This has not proved possible. There is still no direct observation of a fractional charge or any isolated quark. When large energies are put into collisions, other particles are created—but no quarks emerge. There is nearly direct evidence for quarks that is quite compelling. By 1967, experiments at SLAC scattering 20-GeV electrons from protons had produced results like Rutherford had obtained for the nucleus nearly 60 years earlier. The SLAC scattering experiments showed unambiguously that there were three pointlike (meaning they had sizes considerably smaller than the probe’s wavelength) charges inside the proton as seen in . This evidence made all but the most skeptical admit that there was validity to the quark substructure of hadrons.
More recent and higher-energy experiments have produced jets of particles in collisions, highly suggestive of three quarks in a nucleon. Since the quarks are very tightly bound, energy put into separating them pulls them only so far apart before it starts being converted into other particles. More energy produces more particles, not a separation of quarks. Conservation of momentum requires that the particles come out in jets along the three paths in which the quarks were being pulled. Note that there are only three jets, and that other characteristics of the particles are consistent with the three-quark substructure.
### Quarks Have Their Ups and Downs
The quark model actually lost some of its early popularity because the original model with three quarks had to be modified. The up and down quarks seemed to compose normal matter as seen in , while the single strange quark explained strangeness. Why didn’t it have a counterpart? A fourth quark flavor called charm (c) was proposed as the counterpart of the strange quark to make things symmetric—there would be two normal quarks (u and d) and two exotic quarks (s and c). Furthermore, at that time only four leptons were known, two normal and two exotic. It was attractive that there would be four quarks and four leptons. The problem was that no known particles contained a charmed quark. Suddenly, in November of 1974, two groups (one headed by C. C. Ting at Brookhaven National Laboratory and the other by Burton Richter at SLAC) independently and nearly simultaneously discovered a new meson with characteristics that made it clear that its substructure is . It was called J by one group and psi () by the other and now is known as the meson. Since then, numerous particles have been discovered containing the charmed quark, consistent in every way with the quark model. The discovery of the meson had such a rejuvenating effect on quark theory that it is now called the November Revolution. Ting and Richter shared the 1976 Nobel Prize.
History quickly repeated itself. In 1975, the tau () was discovered, and a third family of leptons emerged as seen in ). Theorists quickly proposed two more quark flavors called top (t) or truth and bottom (b) or beauty to keep the number of quarks the same as the number of leptons. And in 1976, the upsilon (
) meson was discovered and shown to be composed of a bottom and an antibottom quark or , quite analogous to the being as seen in . Being a single flavor, these mesons are sometimes called bare charm and bare bottom and reveal the characteristics of their quarks most clearly. Other mesons containing bottom quarks have since been observed. In 1995, two groups at Fermilab confirmed the top quark’s existence, completing the picture of six quarks listed in . Each successive quark discovery—first , then , and finally —has required higher energy because each has higher mass. Quark masses in are only approximately known, because they are not directly observed. They must be inferred from the masses of the particles they combine to form.
### What’s Color got to do with it?—A Whiter Shade of Pale
As mentioned and shown in , quarks carry another quantum number, which we call color. Of course, it is not the color we sense with visible light, but its properties are analogous to those of three primary and three secondary colors. Specifically, a quark can have one of three color values we call red (), green (), and blue () in analogy to those primary visible colors. Antiquarks have three values we call antired or cyan, antigreen or magenta, and antiblue or yellow in analogy to those secondary visible colors. The reason for these names is that when certain visual colors are combined, the eye sees white. The analogy of the colors combining to white is used to explain why baryons are made of three quarks, why mesons are a quark and an antiquark, and why we cannot isolate a single quark. The force between the quarks is such that their combined colors produce white. This is illustrated in . A baryon must have one of each primary color or RGB, which produces white. A meson must have a primary color and its anticolor, also producing white.
Why must hadrons be white? The color scheme is intentionally devised to explain why baryons have three quarks and mesons have a quark and an antiquark. Quark color is thought to be similar to charge, but with more values. An ion, by analogy, exerts much stronger forces than a neutral molecule. When the color of a combination of quarks is white, it is like a neutral atom. The forces a white particle exerts are like the polarization forces in molecules, but in hadrons these leftovers are the strong nuclear force. When a combination of quarks has color other than white, it exerts extremely large forces—even larger than the strong force—and perhaps cannot be stable or permanently separated. This is part of the theory of quark confinement, which explains how quarks can exist and yet never be isolated or directly observed. Finally, an extra quantum number with three values (like those we assign to color) is necessary for quarks to obey the Pauli exclusion principle. Particles such as the , which is composed of three strange quarks, , and the , which is three up quarks, uuu, can exist because the quarks have different colors and do not have the same quantum numbers. Color is consistent with all observations and is now widely accepted. Quark theory including color is called quantum chromodynamics (QCD), also named by Gell-Mann.
### The Three Families
Fundamental particles are thought to be one of three types—leptons, quarks, or carrier particles. Each of those three types is further divided into three analogous families as illustrated in . We have examined leptons and quarks in some detail. Each has six members (and their six antiparticles) divided into three analogous families. The first family is normal matter, of which most things are composed. The second is exotic, and the third more exotic and more massive than the second. The only stable particles are in the first family, which also has unstable members.
Always searching for symmetry and similarity, physicists have also divided the carrier particles into three families, omitting the graviton. Gravity is special among the four forces in that it affects the space and time in which the other forces exist and is proving most difficult to include in a Theory of Everything or TOE (to stub the pretension of such a theory). Gravity is thus often set apart. It is not certain that there is meaning in the groupings shown in , but the analogies are tempting. In the past, we have been able to make significant advances by looking for analogies and patterns, and this is an example of one under current scrutiny. There are connections between the families of leptons, in that the decays into the and the into the e. Similarly for quarks, the higher families eventually decay into the lowest, leaving only u and d quarks. We have long sought connections between the forces in nature. Since these are carried by particles, we will explore connections between gluons, and , and photons as part of the search for unification of forces discussed in GUTs: The Unification of Forces..
### Test Prep for AP Courses
### Summary
1. Hadrons are thought to be composed of quarks, with baryons having three quarks and mesons having a quark and an antiquark.
2. The characteristics of the six quarks and their antiquark counterparts are given in , and the quark compositions of certain hadrons are given in .
3. Indirect evidence for quarks is very strong, explaining all known hadrons and their quantum numbers, such as strangeness, charm, topness, and bottomness.
4. Quarks come in six flavors and three colors and occur only in combinations that produce white.
5. Fundamental particles have no further substructure, not even a size beyond their de Broglie wavelength.
6. There are three types of fundamental particles—leptons, quarks, and carrier particles. Each type is divided into three analogous families as indicated in .
### Conceptual Questions
### Problems & Exercises
|
# Particle Physics
## GUTs: The Unification of Forces
### Learning Objectives
By the end of this section, you will be able to:
1. State the grand unified theory.
2. Explain the electroweak theory.
3. Define gluons.
4. Describe the principle of quantum chromodynamics.
5. Define the standard model.
Present quests to show that the four basic forces are different manifestations of a single unified force follow a long tradition. In the 19th century, the distinct electric and magnetic forces were shown to be intimately connected and are now collectively called the electromagnetic force. More recently, the weak nuclear force has been shown to be connected to the electromagnetic force in a manner suggesting that a theory may be constructed in which all four forces are unified. Certainly, there are similarities in how forces are transmitted by the exchange of carrier particles, and the carrier particles themselves (the gauge bosons in ) are also similar in important ways. The analogy to the unification of electric and magnetic forces is quite good—the four forces are distinct under normal circumstances, but there are hints of connections even on the atomic scale, and there may be conditions under which the forces are intimately related and even indistinguishable. The search for a correct theory linking the forces, called the Grand Unified Theory (GUT), is explored in this section in the realm of particle physics. Frontiers of Physics expands the story in making a connection with cosmology, on the opposite end of the distance scale.
is a Feynman diagram showing how the weak nuclear force is transmitted by the carrier particle , similar to the diagrams in and for the electromagnetic and strong nuclear forces. In the 1960s, a gauge theory, called electroweak theory, was developed by Steven Weinberg, Sheldon Glashow, and Abdus Salam and proposed that the electromagnetic and weak forces are identical at sufficiently high energies. One of its predictions, in addition to describing both electromagnetic and weak force phenomena, was the existence of the , and carrier particles. Not only were three particles having spin 1 predicted, the mass of the and was predicted to be , and that of the was predicted to be . (Their masses had to be about 1000 times that of the pion, or about , since the range of the weak force is about 1000 times less than the strong force carried by virtual pions.) In 1983, these carrier particles were observed at CERN with the predicted characteristics, including masses having the predicted values as seen in . This was another triumph of particle theory and experimental effort, resulting in the 1984 Nobel Prize to the experiment’s group leaders Carlo Rubbia and Simon van der Meer. Theorists Weinberg, Glashow, and Salam had already been honored with the 1979 Nobel Prize for other aspects of electroweak theory.
Although the weak nuclear force is very short ranged (
, as indicated in ), its effects on atomic levels can be measured given the extreme precision of modern techniques. Since electrons spend some time in the nucleus, their energies are affected, and spectra can even indicate new aspects of the weak force, such as the possibility of other carrier particles. So systems many orders of magnitude larger than the range of the weak force supply evidence of electroweak unification in addition to evidence found at the particle scale.
Gluons () are the proposed carrier particles for the strong nuclear force, although they are not directly observed. Like quarks, gluons may be confined to systems having a total color of white. Less is known about gluons than the fact that they are the carriers of the weak and certainly of the electromagnetic force. QCD theory calls for eight gluons, all massless and all spin 1. Six of the gluons carry a color and an anticolor, while two do not carry color, as illustrated in (a). There is indirect evidence of the existence of gluons in nucleons. When high-energy electrons are scattered from nucleons and evidence of quarks is seen, the momenta of the quarks are smaller than they would be if there were no gluons. That means that the gluons carrying force between quarks also carry some momentum, inferred by the already indirect quark momentum measurements. At any rate, the gluons carry color charge and can change the colors of quarks when exchanged, as seen in (b). In the figure, a red down quark interacts with a green strange quark by sending it a gluon. That gluon carries red away from the down quark and leaves it green, because it is an (red-antigreen) gluon. (Taking antigreen away leaves you green.) Its antigreenness kills the green in the strange quark, and its redness turns the quark red.
The strong force is complicated, since observable particles that feel the strong force (hadrons) contain multiple quarks. shows the quark and gluon details of pion exchange between a proton and a neutron as illustrated earlier in and . The quarks within the proton and neutron move along together exchanging gluons, until the proton and neutron get close together. As the quark leaves the proton, a gluon creates a pair of virtual particles, a quark and a antiquark. The quark stays behind and the proton turns into a neutron, while the and move together as a ( confirms the composition for the .) The annihilates a quark in the neutron, the joins the neutron, and the neutron becomes a proton. A pion is exchanged and a force is transmitted.
It is beyond the scope of this text to go into more detail on the types of quark and gluon interactions that underlie the observable particles, but the theory (quantum chromodynamics or QCD) is very self-consistent. So successful have QCD and the electroweak theory been that, taken together, they are called the Standard Model. Advances in knowledge are expected to modify, but not overthrow, the Standard Model of particle physics and forces.
How can forces be unified? They are definitely distinct under most circumstances, for example, being carried by different particles and having greatly different strengths. But experiments show that at extremely small distances, the strengths of the forces begin to become more similar. In fact, electroweak theory’s prediction of the
,
, and carrier particles was based on the strengths of the two forces being identical at extremely small distances as seen in . As discussed in case of the creation of virtual particles for extremely short times, the small distances or short ranges correspond to the large masses of the carrier particles and the correspondingly large energies needed to create them. Thus, the energy scale on the horizontal axis of corresponds to smaller and smaller distances, with 100 GeV corresponding to approximately,
for example. At that distance, the strengths of the EM and weak forces are the same. To test physics at that distance, energies of about 100 GeV must be put into the system, and that is sufficient to create and release the
,
, and carrier particles. At those and higher energies, the masses of the carrier particles becomes less and less relevant, and the in particular resembles the massless, chargeless, spin 1 photon. In fact, there is enough energy when things are pushed to even smaller distances to transform the, and into massless carrier particles more similar to photons and gluons. These have not been observed experimentally, but there is a prediction of an associated particle called the Higgs boson. The mass of this particle is not predicted with nearly the certainty with which the mass of the and particles were predicted, but it was hoped that the Higgs boson could be observed at the now-canceled Superconducting Super Collider (SSC). Ongoing experiments at the Large Hadron Collider at CERN have presented some evidence for a Higgs boson with a mass of 125 GeV, and there is a possibility of a direct discovery during 2012. The existence of this more massive particle would give validity to the theory that the carrier particles are identical under certain circumstances.
The small distances and high energies at which the electroweak force becomes identical with the strong nuclear force are not reachable with any conceivable human-built accelerator. At energies of about (16,000 J per particle), distances of about can be probed. Such energies are needed to test theory directly, but these are about higher than the proposed giant SSC would have had, and the distances are about smaller than any structure we have direct knowledge of. This would be the realm of various GUTs, of which there are many since there is no constraining evidence at these energies and distances. Past experience has shown that any time you probe so many orders of magnitude further (here, about ), you find the unexpected. Even more extreme are the energies and distances at which gravity is thought to unify with the other forces in a TOE. Most speculative and least constrained by experiment are TOEs, one of which is called Superstring theory. Superstrings are entities that are in scale and act like one-dimensional oscillating strings and are also proposed to underlie all particles, forces, and space itself.
At the energy of GUTs, the carrier particles of the weak force would become massless and identical to gluons. If that happens, then both lepton and baryon conservation would be violated. We do not see such violations, because we do not encounter such energies. However, there is a tiny probability that, at ordinary energies, the virtual particles that violate the conservation of baryon number may exist for extremely small amounts of time (corresponding to very small ranges). All GUTs thus predict that the proton should be unstable, but would decay with an extremely long lifetime of about . The predicted decay mode is
which violates both conservation of baryon number and electron family number. Although is an extremely long time (about times the age of the universe), there are a lot of protons, and detectors have been constructed to look for the proposed decay mode as seen in . It is somewhat comforting that proton decay has not been detected, and its experimental lifetime is now greater than . This does not prove GUTs wrong, but it does place greater constraints on the theories, benefiting theorists in many ways.
From looking increasingly inward at smaller details for direct evidence of electroweak theory and GUTs, we turn around and look to the universe for evidence of the unification of forces. In the 1920s, the expansion of the universe was discovered. Thinking backward in time, the universe must once have been very small, dense, and extremely hot. At a tiny fraction of a second after the fabled Big Bang, forces would have been unified and may have left their fingerprint on the existing universe. This, one of the most exciting forefronts of physics, is the subject of Frontiers of Physics.
### Summary
1. Attempts to show unification of the four forces are called Grand Unified Theories (GUTs) and have been partially successful, with connections proven between EM and weak forces in electroweak theory.
2. The strong force is carried by eight proposed particles called gluons, which are intimately connected to a quantum number called color—their governing theory is thus called quantum chromodynamics (QCD). Taken together, QCD and the electroweak theory are widely accepted as the Standard Model of particle physics.
3. Unification of the strong force is expected at such high energies that it cannot be directly tested, but it may have observable consequences in the as-yet unobserved decay of the proton and topics to be discussed in the next chapter. Although unification of forces is generally anticipated, much remains to be done to prove its validity.
### Conceptual Questions
### Problems & Exercises
|
# Frontiers of Physics
## Connection for AP® Courses
There is mystery, surprise, adventure, and discovery in exploring new frontiers. The search for answers is that much more intriguing because the answer to any question always leads to new questions. As our understanding of nature becomes more complete, nature still retains its sense of mystery and never loses its ability to awe us.
Looking through the lens of physics allows us to look both backward and forward in time, and we can discern marvelous patterns in nature with its myriad rules and complex connections. Moreover, we continue looking ever deeper and ever further, probing the basic structure of matter, energy, space, and time, and wondering about the scope of the universe, its beginnings, and its future.
The Big Ideas that we have been supporting and justifying throughout the previous chapters will now be used as a framework to investigate and justify new ideas. With the concepts, qualitative and quantitative problem-solving skills, the connections among topics, and all the rest of the coursework you have mastered, you will be more able to deeply appreciate the treatments that follow. |
# Frontiers of Physics
## Cosmology and Particle Physics
### Learning Objectives
By the end of this section, you will be able to:
1. Discuss the expansion of the universe.
2. Explain the Big Bang.
Look at the sky on some clear night when you are away from city lights. There you will see thousands of individual stars and a faint glowing background of millions more. The Milky Way, as it has been called since ancient times, is an arm of our galaxy of stars—the word galaxy coming from the Greek word galaxias, meaning milky. We know a great deal about our Milky Way galaxy and of the billions of other galaxies beyond its fringes. But they still provoke wonder and awe (see ). And there are still many questions to be answered. Most remarkable when we view the universe on the large scale is that once again explanations of its character and evolution are tied to the very small scale. Particle physics and the questions being asked about the very small scales may also have their answers in the very large scales.
As has been noted in numerous Things Great and Small vignettes, this is not the first time the large has been explained by the small and vice versa. Newton realized that the nature of gravity on Earth that pulls an apple to the ground could explain the motion of the moon and planets so much farther away. Minute atoms and molecules explain the chemistry of substances on a much larger scale. Decays of tiny nuclei explain the hot interior of the Earth. Fusion of nuclei likewise explains the energy of stars. Today, the patterns in particle physics seem to be explaining the evolution and character of the universe. And the nature of the universe has implications for unexplored regions of particle physics.
Cosmology is the study of the character and evolution of the universe. What are the major characteristics of the universe as we know them today? First, there are approximately galaxies in the observable part of the universe. An average galaxy contains more than stars, with our Milky Way galaxy being larger than average, both in its number of stars and its dimensions. Ours is a spiral-shaped galaxy with a diameter of about 100,000 light years and a thickness of about 2000 light years in the arms with a central bulge about 10,000 light years across. The Sun lies about 30,000 light years from the center near the galactic plane. There are significant clouds of gas, and there is a halo of less-dense regions of stars surrounding the main body. (See .) Evidence strongly suggests the existence of a large amount of additional matter in galaxies that does not produce light—the mysterious dark matter we shall later discuss.
Distances are great even within our galaxy and are measured in light years (the distance traveled by light in one year). The average distance between galaxies is on the order of a million light years, but it varies greatly with galaxies forming clusters such as shown in . The Magellanic Clouds, for example, are small galaxies close to our own, some 160,000 light years from Earth. The Andromeda galaxy is a large spiral galaxy like ours and lies 2 million light years away. It is just visible to the naked eye as an extended glow in the Andromeda constellation. Andromeda is the closest large galaxy in our local group, and we can see some individual stars in it with our larger telescopes. The most distant known galaxy is 14 billion light years from Earth—a truly incredible distance. (See .)
Consider the fact that the light we receive from these vast distances has been on its way to us for a long time. In fact, the time in years is the same as the distance in light years. For example, the Andromeda galaxy is 2 million light years away, so that the light now reaching us left it 2 million years ago. If we could be there now, Andromeda would be different. Similarly, light from the most distant galaxy left it 14 billion years ago. We have an incredible view of the past when looking great distances. We can try to see if the universe was different then—if distant galaxies are more tightly packed or have younger-looking stars, for example, than closer galaxies, in which case there has been an evolution in time. But the problem is that the uncertainties in our data are great. Cosmology is almost typified by these large uncertainties, so that we must be especially cautious in drawing conclusions. One consequence is that there are more questions than answers, and so there are many competing theories. Another consequence is that any hard data produce a major result. Discoveries of some importance are being made on a regular basis, the hallmark of a field in its golden age.
Perhaps the most important characteristic of the universe is that all galaxies except those in our local cluster seem to be moving away from us at speeds proportional to their distance from our galaxy. It looks as if a gigantic explosion, universally called the Big Bang, threw matter out some billions of years ago. This amazing conclusion is based on the pioneering work of Edwin Hubble (1889–1953), the American astronomer. In the 1920s, Hubble first demonstrated conclusively that other galaxies, many previously called nebulae or clouds of stars, were outside our own. He then found that all but the closest galaxies have a red shift in their hydrogen spectra that is proportional to their distance. The explanation is that there is a cosmological red shift due to the expansion of space itself. The photon wavelength is stretched in transit from the source to the observer. Double the distance, and the red shift is doubled. While this cosmological red shift is often called a Doppler shift, it is not—space itself is expanding. There is no center of expansion in the universe. All observers see themselves as stationary; the other objects in space appear to be moving away from them. Hubble was directly responsible for discovering that the universe was much larger than had previously been imagined and that it had this amazing characteristic of rapid expansion.
Universal expansion on the scale of galactic clusters (that is, galaxies at smaller distances are not uniformly receding from one another) is an integral part of modern cosmology. For galaxies farther away than about 50 Mly (50 million light years), the expansion is uniform with variations due to local motions of galaxies within clusters. A representative recession velocity can be obtained from the simple formula
where is the distance to the galaxy and is the Hubble constant. The Hubble constant is a central concept in cosmology. Its value is determined by taking the slope of a graph of velocity versus distance, obtained from red shift measurements, such as shown in . We shall use an approximate value of
Thus, is an average behavior for all but the closest galaxies. For example, a galaxy 100 Mly away (as determined by its size and brightness) typically moves away from us at a speed of There can be variations in this speed due to so-called local motions or interactions with neighboring galaxies. Conversely, if a galaxy is found to be moving away from us at speed of 100,000 km/s based on its red shift, it is at a distance
or . This last calculation is approximate, because it assumes the expansion rate was the same 5 billion years ago as now. A similar calculation in Hubble’s measurement changed the notion that the universe is in a steady state.
One of the most intriguing developments recently has been the discovery that the expansion of the universe may be faster now than in the past, rather than slowing due to gravity as expected. Various groups have been looking, in particular, at supernovas in moderately distant galaxies (less than 1 Gly) to get improved distance measurements. Those distances are larger than expected for the observed galactic red shifts, implying the expansion was slower when that light was emitted. This has cosmological consequences that are discussed in Dark Matter and Closure. The first results, published in 1999, are only the beginning of emerging data, with astronomy now entering a data-rich era.
shows how the recession of galaxies looks like the remnants of a gigantic explosion, the famous Big Bang. Extrapolating backward in time, the Big Bang would have occurred between 13 and 15 billion years ago when all matter would have been at a point. Questions instantly arise. What caused the explosion? What happened before the Big Bang? Was there a before, or did time start then? Will the universe expand forever, or will gravity reverse it into a Big Crunch? And is there other evidence of the Big Bang besides the well-documented red shifts?
The Russian-born American physicist George Gamow (1904–1968) was among the first to note that, if there was a Big Bang, the remnants of the primordial fireball should still be evident and should be blackbody radiation. Since the radiation from this fireball has been traveling to us since shortly after the Big Bang, its wavelengths should be greatly stretched. It will look as if the fireball has cooled in the billions of years since the Big Bang. Gamow and collaborators predicted in the late 1940s that there should be blackbody radiation from the explosion filling space with a characteristic temperature of about 7 K. Such blackbody radiation would have its peak intensity in the microwave part of the spectrum. (See .) In 1964, Arno Penzias and Robert Wilson, two American scientists working with Bell Telephone Laboratories on a low-noise radio antenna, detected the radiation and eventually recognized it for what it is.
(b) shows the spectrum of this microwave radiation that permeates space and is of cosmic origin. It is the most perfect blackbody spectrum known, and the temperature of the fireball remnant is determined from it to be . The detection of what is now called the cosmic microwave background (CMBR) was so important (generally considered as important as Hubble’s detection that the galactic red shift is proportional to distance) that virtually every scientist has accepted the expansion of the universe as fact. Penzias and Wilson shared the 1978 Nobel Prize in Physics for their discovery.
We know from direct observation that antimatter is rare. The Earth and the solar system are nearly pure matter. Space probes and cosmic rays give direct evidence—the landing of the Viking probes on Mars would have been spectacular explosions of mutual annihilation energy if Mars were antimatter. We also know that most of the universe is dominated by matter. This is proven by the lack of annihilation radiation coming to us from space, particularly the relative absence of 0.511-MeV rays created by the mutual annihilation of electrons and positrons. It seemed possible that there could be entire solar systems or galaxies made of antimatter in perfect symmetry with our matter-dominated systems. But the interactions between stars and galaxies would sometimes bring matter and antimatter together in large amounts. The annihilation radiation they would produce is simply not observed. Antimatter in nature is created in particle collisions and in decays, but only in small amounts that quickly annihilate, leaving almost pure matter surviving.
Particle physics seems symmetric in matter and antimatter. Why isn’t the cosmos? The answer is that particle physics is not quite perfectly symmetric in this regard. The decay of one of the neutral -mesons, for example, preferentially creates more matter than antimatter. This is caused by a fundamental small asymmetry in the basic forces. This small asymmetry produced slightly more matter than antimatter in the early universe. If there was only one part in more matter (a small asymmetry), the rest would annihilate pair for pair, leaving nearly pure matter to form the stars and galaxies we see today. So the vast number of stars we observe may be only a tiny remnant of the original matter created in the Big Bang. Here at last we see a very real and important asymmetry in nature. Rather than be disturbed by an asymmetry, most physicists are impressed by how small it is. Furthermore, if the universe were completely symmetric, the mutual annihilation would be more complete, leaving far less matter to form us and the universe we know.
A troubling aspect of cosmic microwave background radiation (CMBR) was soon recognized. True, the CMBR verified the Big Bang, had the correct temperature, and had a blackbody spectrum as expected. But the CMBR was too smooth—it looked identical in every direction. Galaxies and other similar entities could not be formed without the existence of fluctuations in the primordial stages of the universe and so there should be hot and cool spots in the CMBR, nicknamed wrinkles, corresponding to dense and sparse regions of gas caused by turbulence or early fluctuations. Over time, dense regions would contract under gravity and form stars and galaxies. Why aren’t the fluctuations there? (This is a good example of an answer producing more questions.) Furthermore, galaxies are observed very far from us, so that they formed very long ago. The problem was to explain how galaxies could form so early and so quickly after the Big Bang if its remnant fingerprint is perfectly smooth. The answer is that if you look very closely, the CMBR is not perfectly smooth, only extremely smooth.
A satellite called the Cosmic Background Explorer (COBE) carried an instrument that made very sensitive and accurate measurements of the CMBR. In April of 1992, there was extraordinary publicity of COBE’s first results—there were small fluctuations in the CMBR. Further measurements were carried out by experiments including NASA’s Wilkinson Microwave Anisotropy Probe (WMAP), which launched in 2001. Data from WMAP provided a much more detailed picture of the CMBR fluctuations. (See .) These amount to temperature fluctuations of only
out of 2.7 K, better than one part in 1000. The WMAP experiment will be followed up by the European Space Agency’s Planck Surveyor, which launched in 2009.
Let us now examine the various stages of the overall evolution of the universe from the Big Bang to the present, illustrated in . Note that scientific notation is used to encompass the many orders of magnitude in time, energy, temperature, and size of the universe. Going back in time, the two lines approach but do not cross (there is no zero on an exponential scale). Rather, they extend indefinitely in ever-smaller time intervals to some infinitesimal point.
Going back in time is equivalent to what would happen if expansion stopped and gravity pulled all the galaxies together, compressing and heating all matter. At a time long ago, the temperature and density were too high for stars and galaxies to exist. Before then, there was a time when the temperature was too great for atoms to exist. And farther back yet, there was a time when the temperature and density were so great that nuclei could not exist. Even farther back in time, the temperature was so high that average kinetic energy was great enough to create short-lived particles, and the density was high enough to make this likely. When we extrapolate back to the point of and production (thermal energies reaching 1 TeV, or a temperature of about ), we reach the limits of what we know directly about particle physics. This is at a time about after the Big Bang. While may seem to be negligibly close to the instant of creation, it is not. There are important stages before this time that are tied to the unification of forces. At those stages, the universe was at extremely high energies and average particle separations were smaller than we can achieve with accelerators. What happened in the early stages before is crucial to all later stages and is possibly discerned by observing present conditions in the universe. One of these is the smoothness of the CMBR.
Names are given to early stages representing key conditions. The stage before back to is called the electroweak epoch, because the electromagnetic and weak forces become identical for energies above about 100 GeV. As discussed earlier, theorists expect that the strong force becomes identical to and thus unified with the electroweak force at energies of about . The average particle energy would be this great at after the Big Bang, if there are no surprises in the unknown physics at energies above about 1 TeV. At the immense energy of (corresponding to a temperature of about ), the and carrier particles would be transformed into massless gauge bosons to accomplish the unification. Before back to about , we have Grand Unification in the GUT epoch, in which all forces except gravity are identical. At , the average energy reaches the immense needed to unify gravity with the other forces in TOE, the Theory of Everything. Before that time is the TOE epoch, but we have almost no idea as to the nature of the universe then, since we have no workable theory of quantum gravity. We call the hypothetical unified force superforce.
Now let us imagine starting at TOE and moving forward in time to see what type of universe is created from various events along the way. As temperatures and average energies decrease with expansion, the universe reaches the stage where average particle separations are large enough to see differences between the strong and electroweak forces (at about ). After this time, the forces become distinct in almost all interactions—they are no longer unified or symmetric. This transition from GUT to electroweak is an example of spontaneous symmetry breaking, in which conditions spontaneously evolved to a point where the forces were no longer unified, breaking that symmetry. This is analogous to a phase transition in the universe, and a clever proposal by American physicist Alan Guth in the early 1980s ties it to the smoothness of the CMBR. Guth proposed that spontaneous symmetry breaking (like a phase transition during cooling of normal matter) released an immense amount of energy that caused the universe to expand extremely rapidly for the brief time from to about . This expansion may have been by an incredible factor of or more in the size of the universe and is thus called the inflationary scenario. One result of this inflation is that it would stretch the wrinkles in the universe nearly flat, leaving an extremely smooth CMBR. While speculative, there is as yet no other plausible explanation for the smoothness of the CMBR. Unless the CMBR is not really cosmic but local in origin, the distances between regions of similar temperatures are too great for any coordination to have caused them, since any coordination mechanism must travel at the speed of light. Again, particle physics and cosmology are intimately entwined. There is little hope that we may be able to test the inflationary scenario directly, since it occurs at energies near , vastly greater than the limits of modern accelerators. But the idea is so attractive that it is incorporated into most cosmological theories.
Characteristics of the present universe may help us determine the validity of this intriguing idea. Additionally, the recent indications that the universe’s expansion rate may be increasing (see Dark Matter and Closure) could even imply that we are in another inflationary epoch.
It is important to note that, if conditions such as those found in the early universe could be created in the laboratory, we would see the unification of forces directly today. The forces have not changed in time, but the average energy and separation of particles in the universe have. As discussed in The Four Basic Forces, the four basic forces in nature are distinct under most circumstances found today. The early universe and its remnants provide evidence from times when they were unified under most circumstances.
### Section Summary
1. Cosmology is the study of the character and evolution of the universe.
2. The two most important features of the universe are the cosmological red shifts of its galaxies being proportional to distance and its cosmic microwave background (CMBR). Both support the notion that there was a gigantic explosion, known as the Big Bang that created the universe.
3. Galaxies farther away than our local group have, on an average, a recessional velocity given by
where
4. Explanations of the large-scale characteristics of the universe are intimately tied to particle physics.
5. The dominance of matter over antimatter and the smoothness of the CMBR are two characteristics that are tied to particle physics.
6. The epochs of the universe are known back to very shortly after the Big Bang, based on known laws of physics.
7. The earliest epochs are tied to the unification of forces, with the electroweak epoch being partially understood, the GUT epoch being speculative, and the TOE epoch being highly speculative since it involves an unknown single superforce.
8. The transition from GUT to electroweak is called spontaneous symmetry breaking. It released energy that caused the inflationary scenario, which in turn explains the smoothness of the CMBR.
### Conceptual Questions
### Problems & Exercises
|
# Frontiers of Physics
## General Relativity and Quantum Gravity
### Learning Objectives
By the end of this section, you will be able to:
1. Explain the effect of gravity on light.
2. Discuss black hole.
3. Explain quantum gravity.
When we talk of black holes or the unification of forces, we are actually discussing aspects of general relativity and quantum gravity. We know from Special Relativity that relativity is the study of how different observers measure the same event, particularly if they move relative to one another. Einstein’s theory of general relativity describes all types of relative motion including accelerated motion and the effects of gravity. General relativity encompasses special relativity and classical relativity in situations where acceleration is zero and relative velocity is small compared with the speed of light. Many aspects of general relativity have been verified experimentally, some of which are better than science fiction in that they are bizarre but true. Quantum gravity is the theory that deals with particle exchange of gravitons as the mechanism for the force, and with extreme conditions where quantum mechanics and general relativity must both be used. A good theory of quantum gravity does not yet exist, but one will be needed to understand how all four forces may be unified. If we are successful, the theory of quantum gravity will encompass all others, from classical physics to relativity to quantum mechanics—truly a Theory of Everything (TOE).
### General Relativity
Einstein first considered the case of no observer acceleration when he developed the revolutionary special theory of relativity, publishing his first work on it in 1905. By 1916, he had laid the foundation of general relativity, again almost on his own. Much of what Einstein did to develop his ideas was to mentally analyze certain carefully and clearly defined situations—doing this is to perform a thought experiment. illustrates a thought experiment like the ones that convinced Einstein that light must fall in a gravitational field. Think about what a person feels in an elevator that is accelerated upward. It is identical to being in a stationary elevator in a gravitational field. The feet of a person are pressed against the floor, and objects released from hand fall with identical accelerations. In fact, it is not possible, without looking outside, to know what is happening—acceleration upward or gravity. This led Einstein to correctly postulate that acceleration and gravity will produce identical effects in all situations. So, if acceleration affects light, then gravity will, too. shows the effect of acceleration on a beam of light shone horizontally at one wall. Since the accelerated elevator moves up during the time light travels across the elevator, the beam of light strikes low, seeming to the person to bend down. (Normally a tiny effect, since the speed of light is so great.) The same effect must occur due to gravity, Einstein reasoned, since there is no way to tell the effects of gravity acting downward from acceleration of the elevator upward. Thus gravity affects the path of light, even though we think of gravity as acting between masses and photons are massless.
Einstein’s theory of general relativity got its first verification in 1919 when starlight passing near the Sun was observed during a solar eclipse. (See .) During an eclipse, the sky is darkened and we can briefly see stars. Those in a line of sight nearest the Sun should have a shift in their apparent positions. Not only was this shift observed, but it agreed with Einstein’s predictions well within experimental uncertainties. This discovery created a scientific and public sensation. Einstein was now a folk hero as well as a very great scientist. The bending of light by matter is equivalent to a bending of space itself, with light following the curve. This is another radical change in our concept of space and time. It is also another connection that any particle with mass or energy (massless photons) is affected by gravity.
There are several current forefront efforts related to general relativity. One is the observation and analysis of gravitational lensing of light. Another is analysis of the definitive proof of the existence of black holes. Direct observation of gravitational waves or moving wrinkles in space is being searched for. Theoretical efforts are also being aimed at the possibility of time travel and wormholes into other parts of space due to black holes.
As you can see in , light is bent toward a mass, producing an effect much like a converging lens (large masses are needed to produce observable effects). On a galactic scale, the light from a distant galaxy could be “lensed” into several images when passing close by another galaxy on its way to Earth. Einstein predicted this effect, but he considered it unlikely that we would ever observe it. A number of cases of this effect have now been observed; one is shown in . This effect is a much larger scale verification of general relativity. But such gravitational lensing is also useful in verifying that the red shift is proportional to distance. The red shift of the intervening galaxy is always less than that of the one being lensed, and each image of the lensed galaxy has the same red shift. This verification supplies more evidence that red shift is proportional to distance. Confidence that the multiple images are not different objects is bolstered by the observations that if one image varies in brightness over time, the others also vary in the same manner.
Black holes are objects having such large gravitational fields that things can fall in, but nothing, not even light, can escape. Bodies, like the Earth or the Sun, have what is called an escape velocity. If an object moves straight up from the body, starting at the escape velocity, it will just be able to escape the gravity of the body. The greater the acceleration of gravity on the body, the greater is the escape velocity. As long ago as the late 1700s, it was proposed that if the escape velocity is greater than the speed of light, then light cannot escape. Simon Laplace (1749–1827), the French astronomer and mathematician, even incorporated this idea of a dark star into his writings. But the idea was dropped after Young’s double slit experiment showed light to be a wave. For some time, light was thought not to have particle characteristics and, thus, could not be acted upon by gravity. The idea of a black hole was very quickly reincarnated in 1916 after Einstein’s theory of general relativity was published. It is now thought that black holes can form in the supernova collapse of a massive star, forming an object perhaps 10 km across and having a mass greater than that of our Sun. It is interesting that several prominent physicists who worked on the concept, including Einstein, firmly believed that nature would find a way to prohibit such objects.
Black holes are difficult to observe directly, because they are small and no light comes directly from them. In fact, no light comes from inside the event horizon, which is defined to be at a distance from the object at which the escape velocity is exactly the speed of light. The radius of the event horizon is known as the Schwarzschild radius and is given by
where is the universal gravitational constant, is the mass of the body, and is the speed of light. The event horizon is the edge of the black hole and is its radius (that is, the size of a black hole is twice ). Since is small and is large, you can see that black holes are extremely small, only a few kilometers for masses a little greater than the Sun’s. The object itself is inside the event horizon.
Physics near a black hole is fascinating. Gravity increases so rapidly that, as you approach a black hole, the tidal effects tear matter apart, with matter closer to the hole being pulled in with much more force than that only slightly farther away. This can pull a companion star apart and heat inflowing gases to the point of producing X rays. (See .) We have observed X rays from certain binary star systems that are consistent with such a picture. This is not quite proof of black holes, because the X rays could also be caused by matter falling onto a neutron star. These objects were first discovered in 1967 by the British astrophysicists, Jocelyn Bell and Anthony Hewish. Neutron stars are literally a star composed of neutrons. They are formed by the collapse of a star’s core in a supernova, during which electrons and protons are forced together to form neutrons (the reverse of neutron decay). Neutron stars are slightly larger than a black hole of the same mass and will not collapse further because of resistance by the strong force. However, neutron stars cannot have a mass greater than about eight solar masses or they must collapse to a black hole. With recent improvements in our ability to resolve small details, such as with the orbiting Chandra X-ray Observatory, it has become possible to measure the masses of X-ray-emitting objects by observing the motion of companion stars and other matter in their vicinity. What has emerged is a plethora of X-ray-emitting objects too massive to be neutron stars. This evidence is considered conclusive and the existence of black holes is widely accepted. These black holes are concentrated near galactic centers.
We also have evidence that supermassive black holes may exist at the cores of many galaxies, including the Milky Way. Such a black hole might have a mass millions or even billions of times that of the Sun, and it would probably have formed when matter first coalesced into a galaxy billions of years ago. Supporting this is the fact that very distant galaxies are more likely to have abnormally energetic cores. Some of the moderately distant galaxies, and hence among the younger, are known as quasars and emit as much or more energy than a normal galaxy but from a region less than a light year across. Quasar energy outputs may vary in times less than a year, so that the energy-emitting region must be less than a light year across. The best explanation of quasars is that they are young galaxies with a supermassive black hole forming at their core, and that they become less energetic over billions of years. In closer superactive galaxies, we observe tremendous amounts of energy being emitted from very small regions of space, consistent with stars falling into a black hole at the rate of one or more a month. The Hubble Space Telescope (1994) observed an accretion disk in the galaxy M87 rotating rapidly around a region of extreme energy emission. (See .) A jet of material being ejected perpendicular to the plane of rotation gives further evidence of a supermassive black hole as the engine.
If a massive object distorts the space around it, like the foot of a water bug on the surface of a pond, then movement of the massive object should create waves in space like those on a pond. Gravitational waves are mass-created distortions in space that propagate at the speed of light and are predicted by general relativity. Since gravity is by far the weakest force, extreme conditions are needed to generate significant gravitational waves. Gravity near binary neutron star systems is so great that significant gravitational wave energy is radiated as the two neutron stars orbit one another. American astronomers, Joseph Taylor and Russell Hulse, measured changes in the orbit of such a binary neutron star system. They found its orbit to change precisely as predicted by general relativity, a strong indication of gravitational waves, and were awarded the 1993 Nobel Prize. But direct detection of gravitational waves on Earth would be conclusive. For many years, various attempts have been made to detect gravitational waves by observing vibrations induced in matter distorted by these waves. American physicist Joseph Weber pioneered this field in the 1960s, but no conclusive events have been observed. (No gravity wave detectors were in operation at the time of the 1987A supernova, unfortunately.) There are now several ambitious systems of gravitational wave detectors in use around the world. These include the LIGO (Laser Interferometer Gravitational Wave Observatory) system with two laser interferometer detectors, one in the state of Washington and another in Louisiana (See ) and the VIRGO (Variability of Irradiance and Gravitational Oscillations) facility in Italy with a single detector.
### Quantum Gravity
Quantum gravity is important in those situations where gravity is so extremely strong that it has effects on the quantum scale, where the other forces are ordinarily much stronger. The early universe was such a place, but black holes are another. The first significant connection between gravity and quantum effects was made by the Russian physicist Yakov Zel’dovich in 1971, and other significant advances followed from the British physicist Stephen Hawking. (See .) These two showed that black holes could radiate away energy by quantum effects just outside the event horizon (nothing can escape from inside the event horizon). Black holes are, thus, expected to radiate energy and shrink to nothing, although extremely slowly for most black holes. The mechanism is the creation of a particle-antiparticle pair from energy in the extremely strong gravitational field near the event horizon. One member of the pair falls into the hole and the other escapes, conserving momentum. (See .) When a black hole loses energy and, hence, rest mass, its event horizon shrinks, creating an even greater gravitational field. This increases the rate of pair production so that the process grows exponentially until the black hole is nuclear in size. A final burst of particles and rays ensues. This is an extremely slow process for black holes about the mass of the Sun (produced by supernovas) or larger ones (like those thought to be at galactic centers), taking on the order of years or longer! Smaller black holes would evaporate faster, but they are only speculated to exist as remnants of the Big Bang. Searches for characteristic -ray bursts have produced events attributable to more mundane objects like neutron stars accreting matter.
The subject of time travel captures the imagination. Theoretical physicists, such as the American Kip Thorne, have treated the subject seriously, looking into the possibility that falling into a black hole could result in popping up in another time and place—a trip through a so-called wormhole. Time travel and wormholes appear in innumerable science fiction dramatizations, but the consensus is that time travel is not possible in theory. While still debated, it appears that quantum gravity effects inside a black hole prevent time travel due to the creation of particle pairs. Direct evidence is elusive.
Theoretical studies indicate that, at extremely high energies and correspondingly early in the universe, quantum fluctuations may make time intervals meaningful only down to some finite time limit. Early work indicated that this might be the case for times as long as , the time at which all forces were unified. If so, then it would be meaningless to consider the universe at times earlier than this. Subsequent studies indicate that the crucial time may be as short as . But the point remains—quantum gravity seems to imply that there is no such thing as a vanishingly short time. Time may, in fact, be grainy with no meaning to time intervals shorter than some tiny but finite size.
Not only is quantum gravity in its infancy, no one knows how to get started on a theory of gravitons and unification of forces. The energies at which TOE should be valid may be so high (at least ) and the necessary particle separation so small (less than ) that only indirect evidence can provide clues. For some time, the common lament of theoretical physicists was one so familiar to struggling students—how do you even get started? But Hawking and others have made a start, and the approach many theorists have taken is called Superstring theory, the topic of the Superstrings.
### Section Summary
1. Einstein’s theory of general relativity includes accelerated frames and, thus, encompasses special relativity and gravity. Created by use of careful thought experiments, it has been repeatedly verified by real experiments.
2. One direct result of this behavior of nature is the gravitational lensing of light by massive objects, such as galaxies, also seen in the microlensing of light by smaller bodies in our galaxy.
3. Another prediction is the existence of black holes, objects for which the escape velocity is greater than the speed of light and from which nothing can escape.
4. The event horizon is the distance from the object at which the escape velocity equals the speed of light . It is called the Schwarzschild radius and is given by
where
5. Physics is unknown inside the event horizon, and the possibility of wormholes and time travel are being studied.
6. Candidates for black holes may power the extremely energetic emissions of quasars, distant objects that seem to be early stages of galactic evolution.
7. Neutron stars are stellar remnants, having the density of a nucleus, that hint that black holes could form from supernovas, too.
8. Gravitational waves are wrinkles in space, predicted by general relativity but not yet observed, caused by changes in very massive objects.
9. Quantum gravity is an incompletely developed theory that strives to include general relativity, quantum mechanics, and unification of forces (thus, a TOE).
10. One unconfirmed connection between general relativity and quantum mechanics is the prediction of characteristic radiation from just outside black holes.
### Conceptual Questions
### Problems & Exercises
|
# Frontiers of Physics
## Superstrings
### Learning Objectives
By the end of this section, you will be able to:
1. Define Superstring theory.
2. Explain the relationship between Superstring theory and the Big Bang.
Introduced earlier in GUTS: The Unification of Forces Superstring theory is an attempt to unify gravity with the other three forces and, thus, must contain quantum gravity. The main tenet of Superstring theory is that fundamental particles, including the graviton that carries the gravitational force, act like one-dimensional vibrating strings. Since gravity affects the time and space in which all else exists, Superstring theory is an attempt at a Theory of Everything (TOE). Each independent quantum number is thought of as a separate dimension in some super space (analogous to the fact that the familiar dimensions of space are independent of one another) and is represented by a different type of Superstring. As the universe evolved after the Big Bang and forces became distinct (spontaneous symmetry breaking), some of the dimensions of superspace are imagined to have curled up and become unnoticed.
Forces are expected to be unified only at extremely high energies and at particle separations on the order of . This could mean that Superstrings must have dimensions or wavelengths of this size or smaller. Just as quantum gravity may imply that there are no time intervals shorter than some finite value, it also implies that there may be no sizes smaller than some tiny but finite value. That may be about . If so, and if Superstring theory can explain all it strives to, then the structures of Superstrings are at the lower limit of the smallest possible size and can have no further substructure. This would be the ultimate answer to the question the ancient Greeks considered. There is a finite lower limit to space.
Not only is Superstring theory in its infancy, it deals with dimensions about 17 orders of magnitude smaller than the details that we have been able to observe directly. It is thus relatively unconstrained by experiment, and there are a host of theoretical possibilities to choose from. This has led theorists to make choices subjectively (as always) on what is the most elegant theory, with less hope than usual that experiment will guide them. It has also led to speculation of alternate universes, with their Big Bangs creating each new universe with a random set of rules. These speculations may not be tested even in principle, since an alternate universe is by definition unattainable. It is something like exploring a self-consistent field of mathematics, with its axioms and rules of logic that are not consistent with nature. Such endeavors have often given insight to mathematicians and scientists alike and occasionally have been directly related to the description of new discoveries.
### Section Summary
1. Superstring theory holds that fundamental particles are one-dimensional vibrations analogous to those on strings and is an attempt at a theory of quantum gravity.
### Problems & Exercises
|
# Frontiers of Physics
## Dark Matter and Closure
### Learning Objectives
By the end of this section, you will be able to:
1. Discuss the existence of dark matter.
2. Explain neutrino oscillations and their consequences.
One of the most exciting problems in physics today is the fact that there is far more matter in the universe than we can see. The motion of stars in galaxies and the motion of galaxies in clusters imply that there is about 10 times as much mass as in the luminous objects we can see. The indirectly observed non-luminous matter is called dark matter. Why is dark matter a problem? For one thing, we do not know what it is. It may well be 90% of all matter in the universe, yet there is a possibility that it is of a completely unknown form—a stunning discovery if verified. Dark matter has implications for particle physics. It may be possible that neutrinos actually have small masses or that there are completely unknown types of particles. Dark matter also has implications for cosmology, since there may be enough dark matter to stop the expansion of the universe. That is another problem related to dark matter—we do not know how much there is. We keep finding evidence for more matter in the universe, and we have an idea of how much it would take to eventually stop the expansion of the universe, but whether there is enough is still unknown.
### Evidence
The first clues that there is more matter than meets the eye came from the Swiss-born American astronomer Fritz Zwicky in the 1930s; major work was also done by the American astronomer Vera Rubin. Zwicky measured the velocities of stars orbiting the galaxy, using the relativistic Doppler shift of their spectra (see (a)). He found that velocity varied with distance from the center of the galaxy, as graphed in (b). If the mass of the galaxy was concentrated in its center, as are its luminous stars, the velocities should decrease as the square root of the distance from the center. Instead, the velocity curve is almost flat, implying that there is a tremendous amount of matter in the galactic halo. Using instruments and methods that offered a greater degree of precision, Rubin investigated the movement of spiral galaxies and observed that their outermost reaches were rotating as quickly as their centers. She also calculated that the rotational velocity of galaxies should have been enough to cause them to fly apart, unless there was a significant discrepancy between their observable matter and their actual matter. This became known as the galaxy rotation problem, which can be "solved" by the presence of unobserved or dark matter. Although not immediately recognized for its significance, such measurements have now been made for many galaxies, with similar results. Further, studies of galactic clusters have also indicated that galaxies have a mass distribution greater than that obtained from their brightness (proportional to the number of stars), which also extends into large halos surrounding the luminous parts of galaxies. Observations of other EM wavelengths, such as radio waves and X rays, have similarly confirmed the existence of dark matter. Take, for example, X rays in the relatively dark space between galaxies, which indicates the presence of previously unobserved hot, ionized gas (see (c)).
### Theoretical Yearnings for Closure
Is the universe open or closed? That is, will the universe expand forever or will it stop, perhaps to contract? This, until recently, was a question of whether there is enough gravitation to stop the expansion of the universe. In the past few years, it has become a question of the combination of gravitation and what is called the cosmological constant. The cosmological constant was invented by Einstein to prohibit the expansion or contraction of the universe. At the time he developed general relativity, Einstein considered that an illogical possibility. The cosmological constant was discarded after Hubble discovered the expansion, but has been re-invoked in recent years.
Gravitational attraction between galaxies is slowing the expansion of the universe, but the amount of slowing down is not known directly. In fact, the cosmological constant can counteract gravity’s effect. As recent measurements indicate, the universe is expanding faster now than in the past—perhaps a “modern inflationary era” in which the dark energy is thought to be causing the expansion of the present-day universe to accelerate. If the expansion rate were affected by gravity alone, we should be able to see that the expansion rate between distant galaxies was once greater than it is now. However, measurements show it was less than now. We can, however, calculate the amount of slowing based on the average density of matter we observe directly. Here we have a definite answer—there is far less visible matter than needed to stop expansion. The critical density is defined to be the density needed to just halt universal expansion in a universe with no cosmological constant. It is estimated to be about
However, this estimate of is only good to about a factor of two, due to uncertainties in the expansion rate of the universe. The critical density is equivalent to an average of only a few nucleons per cubic meter, remarkably small and indicative of how truly empty intergalactic space is. Luminous matter seems to account for roughly to of the critical density, far less than that needed for closure. Taking into account the amount of dark matter we detect indirectly and all other types of indirectly observed normal matter, there is only to of what is needed for closure. If we are able to refine the measurements of expansion rates now and in the past, we will have our answer regarding the curvature of space and we will determine a value for the cosmological constant to justify this observation. Finally, the most recent measurements of the CMBR have implications for the cosmological constant, so it is not simply a device concocted for a single purpose.
After the recent experimental discovery of the cosmological constant, most researchers feel that the universe should be just barely open. Since matter can be thought to curve the space around it, we call an open universe negatively curved. This means that you can in principle travel an unlimited distance in any direction. A universe that is closed is called positively curved. This means that if you travel far enough in any direction, you will return to your starting point, analogous to circumnavigating the Earth. In between these two is a flat (zero curvature) universe. The recent discovery of the cosmological constant has shown the universe is very close to flat, and will expand forever. Why do theorists feel the universe is flat? Flatness is a part of the inflationary scenario that helps explain the flatness of the microwave background. In fact, since general relativity implies that matter creates the space in which it exists, there is a special symmetry to a flat universe.
### What Is the Dark Matter We See Indirectly?
There is no doubt that dark matter exists, but its form and the amount in existence are two facts that are still being studied vigorously. As always, we seek to explain new observations in terms of known principles. However, as more discoveries are made, it is becoming more and more difficult to explain dark matter as a known type of matter.
One of the possibilities for normal matter is being explored using the Hubble Space Telescope and employing the lensing effect of gravity on light (see ). Stars glow because of nuclear fusion in them, but planets are visible primarily by reflected light. Jupiter, for example, is too small to ignite fusion in its core and become a star, but we can see sunlight reflected from it, since we are relatively close. If Jupiter orbited another star, we would not be able to see it directly. The question is open as to how many planets or other bodies smaller than about 1/1000 the mass of the Sun are there. If such bodies pass between us and a star, they will not block the star’s light, being too small, but they will form a gravitational lens, as discussed in General Relativity and Quantum Gravity.
In a process called microlensing, light from the star is focused and the star appears to brighten in a characteristic manner. Searches for dark matter in this form are particularly interested in galactic halos because of the huge amount of mass that seems to be there. Such microlensing objects are thus called massive compact halo objects, or MACHOs. To date, a few MACHOs have been observed, but not predominantly in galactic halos, nor in the numbers needed to explain dark matter.
MACHOs are among the most conventional of unseen objects proposed to explain dark matter. Others being actively pursued are red dwarfs, which are small dim stars, but too few have been seen so far, even with the Hubble Telescope, to be of significance. Old remnants of stars called white dwarfs are also under consideration, since they contain about a solar mass, but are small as the Earth and may dim to the point that we ordinarily do not observe them. While white dwarfs are known, old dim ones are not. Yet another possibility is the existence of large numbers of smaller than stellar mass black holes left from the Big Bang—here evidence is entirely absent.
There is a very real possibility that dark matter is composed of the known neutrinos, which may have small, but finite, masses. As discussed earlier, neutrinos are thought to be massless, but we only have upper limits on their masses, rather than knowing they are exactly zero. So far, these upper limits come from difficult measurements of total energy emitted in the decays and reactions in which neutrinos are involved. There is an amusing possibility of proving that neutrinos have mass in a completely different way.
We have noted in Particles, Patterns, and Conservation Laws that there are three flavors of neutrinos (, , and ) and that the weak interaction could change quark flavor. It should also change neutrino flavor—that is, any type of neutrino could change spontaneously into any other, a process called neutrino oscillations. However, this can occur only if neutrinos have a mass. Why? Crudely, because if neutrinos are massless, they must travel at the speed of light and time will not pass for them, so that they cannot change without an interaction. In 1999, results began to be published containing convincing evidence that neutrino oscillations do occur. Using the Super-Kamiokande detector in Japan, the oscillations have been observed and are being verified and further explored at present at the same facility and others.
Neutrino oscillations may also explain the low number of observed solar neutrinos. Detectors for observing solar neutrinos are specifically designed to detect electron neutrinos produced in huge numbers by fusion in the Sun. A large fraction of electron neutrinos may be changing flavor to muon neutrinos on their way out of the Sun, possibly enhanced by specific interactions, reducing the flux of electron neutrinos to observed levels. There is also a discrepancy in observations of neutrinos produced in cosmic ray showers. While these showers of radiation produced by extremely energetic cosmic rays should contain twice as many s as s, their numbers are nearly equal. This may be explained by neutrino oscillations from muon flavor to electron flavor. Massive neutrinos are a particularly appealing possibility for explaining dark matter, since their existence is consistent with a large body of known information and explains more than dark matter. The question is not settled at this writing.
The most radical proposal to explain dark matter is that it consists of previously unknown leptons (sometimes obtusely referred to as non-baryonic matter). These are called weakly interacting massive particles, or WIMPs, and would also be chargeless, thus interacting negligibly with normal matter, except through gravitation. One proposed group of WIMPs would have masses several orders of magnitude greater than nucleons and are sometimes called neutralinos. Others are called axions and would have masses about that of an electron mass. Both neutralinos and axions would be gravitationally attached to galaxies, but because they are chargeless and only feel the weak force, they would be in a halo rather than interact and coalesce into spirals, and so on, like normal matter (see ).
Some particle theorists have built WIMPs into their unified force theories and into the inflationary scenario of the evolution of the universe so popular today. These particles would have been produced in just the correct numbers to make the universe flat, shortly after the Big Bang. The proposal is radical in the sense that it invokes entirely new forms of matter, in fact two entirely new forms, in order to explain dark matter and other phenomena. WIMPs have the extra burden of automatically being very difficult to observe directly. This is somewhat analogous to quark confinement, which guarantees that quarks are there, but they can never be seen directly. One of the primary goals of the LHC at CERN, however, is to produce and detect WIMPs. At any rate, before WIMPs are accepted as the best explanation, all other possibilities utilizing known phenomena will have to be shown inferior. Should that occur, we will be in the unanticipated position of admitting that, to date, all we know is only 10% of what exists. A far cry from the days when people firmly believed themselves to be not only the center of the universe, but also the reason for its existence.
### Section Summary
1. Dark matter is non-luminous matter detected in and around galaxies and galactic clusters.
2. It may be 10 times the mass of the luminous matter in the universe, and its amount may determine whether the universe is open or closed (expands forever or eventually stops).
3. The determining factor is the critical density of the universe and the cosmological constant, a theoretical construct intimately related to the expansion and closure of the universe.
4. The critical density ρc is the density needed to just halt universal expansion. It is estimated to be approximately 10–26 kg/m3.
5. An open universe is negatively curved, a closed universe is positively curved, whereas a universe with exactly the critical density is flat.
6. Dark matter’s composition is a major mystery, but it may be due to the suspected mass of neutrinos or a completely unknown type of leptonic matter.
7. If neutrinos have mass, they will change families, a process known as neutrino oscillations, for which there is growing evidence.
### Conceptual Questions
### Problems Exercises
|
# Frontiers of Physics
## Complexity and Chaos
### Learning Objectives
By the end of this section, you will be able to:
1. Explain complex systems.
2. Discuss chaotic behavior of different systems.
Much of what impresses us about physics is related to the underlying connections and basic simplicity of the laws we have discovered. The language of physics is precise and well defined because many basic systems we study are simple enough that we can perform controlled experiments and discover unambiguous relationships. Our most spectacular successes, such as the prediction of previously unobserved particles, come from the simple underlying patterns we have been able to recognize. But there are systems of interest to physicists that are inherently complex. The simple laws of physics apply, of course, but complex systems may reveal patterns that simple systems do not. The emerging field of complexity is devoted to the study of complex systems, including those outside the traditional bounds of physics. Of particular interest is the ability of complex systems to adapt and evolve.
What are some examples of complex adaptive systems? One is the primordial ocean. When the oceans first formed, they were a random mix of elements and compounds that obeyed the laws of physics and chemistry. In a relatively short geological time (about 500 million years), life had emerged. Laboratory simulations indicate that the emergence of life was far too fast to have come from random combinations of compounds, even if driven by lightning and heat. There must be an underlying ability of the complex system to organize itself, resulting in the self-replication we recognize as life. Living entities, even at the unicellular level, are highly organized and systematic. Systems of living organisms are themselves complex adaptive systems. The grandest of these evolved into the biological system we have today, leaving traces in the geological record of steps taken along the way.
Complexity as a discipline examines complex systems, how they adapt and evolve, looking for similarities with other complex adaptive systems. Can, for example, parallels be drawn between biological evolution and the evolution of economic systems? Economic systems do emerge quickly, they show tendencies for self-organization, they are complex (in the number and types of transactions), and they adapt and evolve. Biological systems do all the same types of things. There are other examples of complex adaptive systems being studied for fundamental similarities. Cultures show signs of adaptation and evolution. The comparison of different cultural evolutions may bear fruit as well as comparisons to biological evolution. Science also is a complex system of human interactions, like culture and economics, that adapts to new information and political pressure, and evolves, usually becoming more organized rather than less. Those who study creative thinking also see parallels with complex systems. Humans sometimes organize almost random pieces of information, often subconsciously while doing other things, and come up with brilliant creative insights. The development of language is another complex adaptive system that may show similar tendencies. Artificial intelligence is an overt attempt to devise an adaptive system that will self-organize and evolve in the same manner as an intelligent living being learns. These are a few of the broad range of topics being studied by those who investigate complexity. There are now institutes, journals, and meetings, as well as popularizations of the emerging topic of complexity.
In traditional physics, the discipline of complexity may yield insights in certain areas. Thermodynamics treats systems on the average, while statistical mechanics deals in some detail with complex systems of atoms and molecules in random thermal motion. Yet there is organization, adaptation, and evolution in those complex systems. Non-equilibrium phenomena, such as heat transfer and phase changes, are characteristically complex in detail, and new approaches to them may evolve from complexity as a discipline. Crystal growth is another example of self-organization spontaneously emerging in a complex system. Alloys are also inherently complex mixtures that show certain simple characteristics implying some self-organization. The organization of iron atoms into magnetic domains as they cool is another. Perhaps insights into these difficult areas will emerge from complexity. But at the minimum, the discipline of complexity is another example of human effort to understand and organize the universe around us, partly rooted in the discipline of physics.
A predecessor to complexity is the topic of chaos, which has been widely publicized and has become a discipline of its own. It is also based partly in physics and treats broad classes of phenomena from many disciplines. Chaos is a word used to describe systems whose outcomes are extremely sensitive to initial conditions. The orbit of the planet Pluto, for example, may be chaotic in that it can change tremendously due to small interactions with other planets. This makes its long-term behavior impossible to predict with precision, just as we cannot tell precisely where a decaying Earth satellite will land or how many pieces it will break into. But the discipline of chaos has found ways to deal with such systems and has been applied to apparently unrelated systems. For example, the heartbeat of people with certain types of potentially lethal arrhythmias seems to be chaotic, and this knowledge may allow more sophisticated monitoring and recognition of the need for intervention.
Chaos is related to complexity. Some chaotic systems are also inherently complex; for example, vortices in a fluid as opposed to a double pendulum. Both are chaotic and not predictable in the same sense as other systems. But there can be organization in chaos and it can also be quantified. Examples of chaotic systems are beautiful fractal patterns such as in . Some chaotic systems exhibit self-organization, a type of stable chaos. The orbits of the planets in our solar system, for example, may be chaotic (we are not certain yet). But they are definitely organized and systematic, with a simple formula describing the orbital radii of the first eight planets and the asteroid belt. Large-scale vortices in Jupiter’s atmosphere are chaotic, but the Great Red Spot is a stable self-organization of rotational energy. (See .) The Great Red Spot has been in existence for at least 400 years and is a complex self-adaptive system.
The emerging field of complexity, like the now almost traditional field of chaos, is partly rooted in physics. Both attempt to see similar systematics in a very broad range of phenomena and, hence, generate a better understanding of them. Time will tell what impact these fields have on more traditional areas of physics as well as on the other disciplines they relate to.
### Section Summary
1. Complexity is an emerging field, rooted primarily in physics, that considers complex adaptive systems and their evolution, including self-organization.
2. Complexity has applications in physics and many other disciplines, such as biological evolution.
3. Chaos is a field that studies systems whose properties depend extremely sensitively on some variables and whose evolution is impossible to predict.
4. Chaotic systems may be simple or complex.
5. Studies of chaos have led to methods for understanding and predicting certain chaotic behaviors.
### Conceptual Questions
|
# Frontiers of Physics
## High-temperature Superconductors
### Learning Objectives
By the end of this section, you will be able to:
1. Identify superconductors and their uses.
2. Discuss the need for a high-Tc superconductor.
Superconductors are materials with a resistivity of zero. They are familiar to the general public because of their practical applications and have been mentioned at a number of points in the text. Because the resistance of a piece of superconductor is zero, there are no heat losses for currents through them; they are used in magnets needing high currents, such as in MRI machines, and could cut energy losses in power transmission. But most superconductors must be cooled to temperatures only a few kelvin above absolute zero, a costly procedure limiting their practical applications. In the past decade, tremendous advances have been made in producing materials that become superconductors at relatively high temperatures. There is hope that room temperature superconductors may someday be manufactured.
Superconductivity was discovered accidentally in 1911 by the Dutch physicist H. Kamerlingh Onnes (1853–1926) when he used liquid helium to cool mercury. Onnes had been the first person to liquefy helium a few years earlier and was surprised to observe the resistivity of a mediocre conductor like mercury drop to zero at a temperature of 4.2 K. We define the temperature at which and below which a material becomes a superconductor to be its critical temperature, denoted by . (See .) Progress in understanding how and why a material became a superconductor was relatively slow, with the first workable theory coming in 1957. Certain other elements were also found to become superconductors, but all had s less than 10 K, which are expensive to maintain. Although Onnes received a Nobel prize in 1913, it was primarily for his work with liquid helium.
In 1986, a breakthrough was announced—a ceramic compound was found to have an unprecedented of 35 K. It looked as if much higher critical temperatures could be possible, and by early 1988 another ceramic (this of thallium, calcium, barium, copper, and oxygen) had been found to have (see .) The economic potential of perfect conductors saving electric energy is immense for s above 77 K, since that is the temperature of liquid nitrogen. Although liquid helium has a boiling point of 4 K and can be used to make materials superconducting, it costs about $5 per liter. Liquid nitrogen boils at 77 K, but only costs about $0.30 per liter. There was general euphoria at the discovery of these complex ceramic superconductors, but this soon subsided with the sobering difficulty of forming them into usable wires. The first commercial use of a high temperature superconductor is in an electronic filter for cellular phones. High-temperature superconductors are used in experimental apparatus, and they are actively being researched, particularly in thin film applications.
The search is on for even higher superconductors, many of complex and exotic copper oxide ceramics, sometimes including strontium, mercury, or yttrium as well as barium, calcium, and other elements. Room temperature (about 293 K) would be ideal, but any temperature close to room temperature is relatively cheap to produce and maintain. There are persistent reports of s over 200 K and some in the vicinity of 270 K. Unfortunately, these observations are not routinely reproducible, with samples losing their superconducting nature once heated and recooled (cycled) a few times (see .) They are now called USOs or unidentified superconducting objects, out of frustration and the refusal of some samples to show high even though produced in the same manner as others. Reproducibility is crucial to discovery, and researchers are justifiably reluctant to claim the breakthrough they all seek. Time will tell whether USOs are real or an experimental quirk.
The theory of ordinary superconductors is difficult, involving quantum effects for widely separated electrons traveling through a material. Electrons couple in a manner that allows them to get through the material without losing energy to it, making it a superconductor. High- superconductors are more difficult to understand theoretically, but theorists seem to be closing in on a workable theory. The difficulty of understanding how electrons can sneak through materials without losing energy in collisions is even greater at higher temperatures, where vibrating atoms should get in the way. Discoverers of high may feel something analogous to what a politician once said upon an unexpected election victory—“I wonder what we did right?”
### Section Summary
1. High-temperature superconductors are materials that become superconducting at temperatures well above a few kelvin.
2. The critical temperature is the temperature below which a material is superconducting.
3. Some high-temperature superconductors have verified s above 125 K, and there are reports of s as high as 250 K.
### Conceptual Questions
### Problem Exercises
|
# Frontiers of Physics
## Some Questions We Know to Ask
### Learning Objectives
By the end of this section, you will be able to:
1. Identify sample questions to be asked on the largest scales.
2. Identify sample questions to be asked on the intermediate scale.
3. Identify sample questions to be asked on the smallest scales.
Throughout the text we have noted how essential it is to be curious and to ask questions in order to first understand what is known, and then to go a little farther. Some questions may go unanswered for centuries; others may not have answers, but some bear delicious fruit. Part of discovery is knowing which questions to ask. You have to know something before you can even phrase a decent question. As you may have noticed, the mere act of asking a question can give you the answer. The following questions are a sample of those physicists now know to ask and are representative of the forefronts of physics. Although these questions are important, they will be replaced by others if answers are found to them. The fun continues.
### On the Largest Scale
1. Is the universe open or closed? Theorists would like it to be just barely closed and evidence is building toward that conclusion. Recent measurements in the expansion rate of the universe and in CMBR support a flat universe. There is a connection to small-scale physics in the type and number of particles that may contribute to closing the universe.
2. What is dark matter? It is definitely there, but we really do not know what it is. Conventional possibilities are being ruled out, but one of them still may explain it. The answer could reveal whole new realms of physics and the disturbing possibility that most of what is out there is unknown to us, a completely different form of matter.
3. How do galaxies form? They exist since very early in the evolution of the universe and it remains difficult to understand how they evolved so quickly. The recent finer measurements of fluctuations in the CMBR may yet allow us to explain galaxy formation.
4. What is the nature of various-mass black holes? Only recently have we become confident that many black hole candidates cannot be explained by other, less exotic possibilities. But we still do not know much about how they form, what their role in the history of galactic evolution has been, and the nature of space in their vicinity. However, so many black holes are now known that correlations between black hole mass and galactic nuclei characteristics are being studied.
5. What is the mechanism for the energy output of quasars? These distant and extraordinarily energetic objects now seem to be early stages of galactic evolution with a supermassive black-hole-devouring material. Connections are now being made with galaxies having energetic cores, and there is evidence consistent with less consuming, supermassive black holes at the center of older galaxies. New instruments are allowing us to see deeper into our own galaxy for evidence of our own massive black hole.
6. Where do the ? We see bursts of rays coming from all directions in space, indicating the sources are very distant objects rather than something associated with our own galaxy. Some bursts finally are being correlated with known sources so that the possibility they may originate in binary neutron star interactions or black holes eating a companion neutron star can be explored.
### On the Intermediate Scale
1. How do phase transitions take place on the microscopic scale? We know a lot about phase transitions, such as water freezing, but the details of how they occur molecule by molecule are not well understood. Similar questions about specific heat a century ago led to early quantum mechanics. It is also an example of a complex adaptive system that may yield insights into other self-organizing systems.
2. Is there a way to deal with nonlinear phenomena that reveals underlying connections? Nonlinear phenomena lack a direct or linear proportionality that makes analysis and understanding a little easier. There are implications for nonlinear optics and broader topics such as chaos.
3. How do high- ? Understanding how they work may help make them more practical or may result in surprises as unexpected as the discovery of superconductivity itself.
4. There are magnetic effects in materials we do not understand—how do they work? Although beyond the scope of this text, there is a great deal to learn in condensed matter physics (the physics of solids and liquids). We may find surprises analogous to lasing, the quantum Hall effect, and the quantization of magnetic flux. Complexity may play a role here, too.
### On the Smallest Scale
1. Are quarks and leptons fundamental, or do they have a substructure? The higher energy accelerators that are just completed or being constructed may supply some answers, but there will also be input from cosmology and other systematics.
2. Why do leptons have integral charge while quarks have fractional charge? If both are fundamental and analogous as thought, this question deserves an answer. It is obviously related to the previous question.
3. Why are there three families of quarks and leptons? First, does this imply some relationship? Second, why three and only three families?
4. Are all forces truly equal (unified) under certain circumstances? They don’t have to be equal just because we want them to be. The answer may have to be indirectly obtained because of the extreme energy at which we think they are unified.
5. Are there other fundamental forces? There was a flurry of activity with claims of a fifth and even a sixth force a few years ago. Interest has subsided, since those forces have not been detected consistently. Moreover, the proposed forces have strengths similar to gravity, making them extraordinarily difficult to detect in the presence of stronger forces. But the question remains; and if there are no other forces, we need to ask why only four and why these four.
6. Is the proton stable? We have discussed this in some detail, but the question is related to fundamental aspects of the unification of forces. We may never know from experiment that the proton is stable, only that it is very long lived.
7. Are there magnetic monopoles? Many particle theories call for very massive individual north- and south-pole particles—magnetic monopoles. If they exist, why are they so different in mass and elusiveness from electric charges, and if they do not exist, why not?
8. Do neutrinos have mass? Definitive evidence has emerged for neutrinos having mass. The implications are significant, as discussed in this chapter. There are effects on the closure of the universe and on the patterns in particle physics.
9. What are the systematic characteristics of high- ? All elements with or less (with the exception of 115 and 117) have now been discovered. It has long been conjectured that there may be an island of relative stability near , and the study of the most recently discovered nuclei will contribute to our understanding of nuclear forces.
These lists of questions are not meant to be complete or consistently important—you can no doubt add to it yourself. There are also important questions in topics not broached in this text, such as certain particle symmetries, that are of current interest to physicists. Hopefully, the point is clear that no matter how much we learn, there always seems to be more to know. Although we are fortunate to have the hard-won wisdom of those who preceded us, we can look forward to new enlightenment, undoubtedly sprinkled with surprise.
### Section Summary
1. On the largest scale, the questions which can be asked may be about dark matter, dark energy, black holes, quasars, and other aspects of the universe.
2. On the intermediate scale, we can query about gravity, phase transitions, nonlinear phenomena, high- superconductors, and magnetic effects on materials.
3. On the smallest scale, questions may be about quarks and leptons, fundamental forces, stability of protons, and existence of monopoles.
### Conceptual Questions
|
# Wstęp do mikroekonomii
## Wprowadzenie do rozdziału
Czym jest ekonomia i dlaczego warto poświęcać czas na jej studiowanie? W końcu istnieją inne dyscypliny naukowe, które możesz zgłębiać, i inne sposoby spędzania czasu. Jak to już zostało wspomniane, dokonywanie wyborów stanowi sedno tego, czym zajmują się ekonomiści, a decyzja o przeczytaniu tego podręcznika jest decyzją ekonomiczną, podobnie jak każdy inny dokonany przez ciebie wybór.
Ekonomia prawdopodobnie jest czym innym niż myślisz. Nie chodzi w niej przede wszystkim o pieniądze czy finansowanie przedsiębiorstw. Nie sprowadza się do działalności biznesowej. Nie jest również matematyką. Czym zatem jest ekonomia? Otóż jest to zarówno jedna z nauk społecznych, jak i sposób postrzegania świata. |
# Wstęp do mikroekonomii
## Czym jest ekonomia i dlaczego jest ona ważna?
Ekonomia (ang. ) to nauka o tym, jak ludzie podejmują decyzje w obliczu rzadkości (ograniczoności) zasobów. Mogą to być decyzje indywidualne, decyzje rodzinne, decyzje biznesowe lub decyzje społeczne. Jeśli rozejrzysz się uważnie, zobaczysz, że rzadkość zasobów jest faktem. Rzadkość zasobów (ang. ) oznacza, że potrzeby w zakresie towarów, usług i surowców przekraczają dostępne zasoby, jeśli koszt ich pozyskania jest pomijalny (ich cena jest równa zero). Zasoby takie jak: siła robocza, narzędzia, ziemia i surowce są niezbędne do wytworzenia pożądanych przez nas dóbr i usług, ale ich podaż jest ograniczona. Oczywiście rzadkim zasobem jest również czas – każdy człowiek, bogaty czy biedny, ma tylko 24 godziny w ciągu doby, które może wykorzystać, aby zarobić na zakup towarów i usług albo też poświęcić je na rekreację lub sen. W danym momencie dostępna jest tylko skończona ilość zasobów. Istnieją dobra, których zasoby wydają się nieograniczone, np. powietrze czy energia słoneczna. Nazywane są one dobrami wolnymi, ale kryzys klimatyczny uświadamia nam, że nawet obfitość takich dóbr ma charakter względny.
Pomyśl o tym w ten sposób: zgodnie z danymi Głównego Urzędu Statystycznego (GUS) w 2020 r. liczba osób aktywnych zawodowo w Polsce kształtowała się na poziomie bliskim 17 mln (w tym samym okresie osób biernych zawodowo było blisko 13,5 mln). Całkowita powierzchnia kraju wynosiła 312 679 km kw. Chociaż są to z pewnością liczby duże, nie są one nieskończone. Ponieważ zasoby te są ograniczone, podobnie rzecz się ma z ilością towarów i usług, które dzięki ich wykorzystaniu produkujemy (jakkolwiek, zgodnie z danymi GUS, produkcja dóbr i usług konsumpcyjnych w Polsce z roku na rok jest coraz większa). Jeśli dodamy do tego fakt, iż ludzkie potrzeby wprawdzie nie są nieograniczone (w końcu ile pączków w ciągu dnia jest w stanie zjeść człowiek), ale – również ze względu na to, że wciąż pojawiają się nowe produkty (przede wszystkim gadżety elektroniczne) – znacznie przekraczają dostępny zasób dóbr i usług, łatwo zauważyć, dlaczego rzadkość zasobów jest problemem. Rozwiązywanie tego problemu wymaga analizy nie tylko produkcji, ale także sposobu dzielenia dóbr (ich dostępności) między poszczególne jednostki i grupy. Dlatego przedmiot ekonomii – gospodarowanie rzadkimi zasobami – obejmuje produkcję i podział jej efektów w społeczeństwie.
Podział dóbr w społeczeństwie rodzi kontrowersje, które także są przedmiotem analiz ekonomistów. W tym miejscu należy podkreślić specyficzną cechę ekonomii jako nauki społecznej. W ekonomii występują twierdzenia pozytywne, które opisują, jak ludzie działają (tzw. ekonomia pozytywna), i twierdzenia normatywne, dotyczące tego, jak być powinno (ekonomia normatywna). Temat ten zostanie rozwinięty w kolejnym rozdziale.
### Wprowadzenie do bazy danych FRED
Dane liczbowe są bardzo ważne w ekonomii, ponieważ ilustrują problemy, które ekonomia stara się zrozumieć. Różne agencje rządowe publikują dane gospodarcze i społeczno-ekonomiczne. W tym podręczniku będziemy używać głównie danych z bazy FRED Banku Rezerwy Federalnej w St. Louis i danych dostępnych poprzez witrynę internetową Głównego Urzędu Statystycznego (GUS). Zarówno portal FRED, jak i GUS są bardzo przyjazne dla użytkownika. Umożliwiają wyświetlanie danych w tabelach lub na wykresach, a także łatwe pobieranie ich do postaci arkusza kalkulacyjnego, jeśli chcesz wykorzystać je do innych celów. Witryny FRED i GUS zawierają dane dotyczące kształtowania się w czasie prawie 400 tys. liczb obrazujących procesy gospodarcze w kraju i na świecie w szerokich kategoriach:
1.
Pieniądz, bankowość i finanse
2.
Demografia, zatrudnienie i rynek pracy (w tym rozkład dochodów)
3.
Rachunki narodowe (produkt krajowy brutto i jego składowe)
4.
Produkcja i działalność gospodarcza (w tym cykle koniunkturalne)
5.
Ceny i inflacja (w tym indeks cen towarów i usług konsumpcyjnych, indeks cen producentów oraz indeks kosztów zatrudnienia)
6.
Dane regionalne z USA i Polski
7.
Dodatkowo portal FRED zawiera również dane akademickie (w tym
Aby uzyskać więcej informacji o tym, jak korzystać z FRED, zobacz filmy na YouTube, zaczynając od tego wprowadzenia.
Jeśli nadal nie wierzysz, że rzadkość zasobów jest istotnym problemem, zastanów się nad następującymi kwestiami: Czy każdy potrzebuje jedzenia? Czy każdy potrzebuje przyzwoitego mieszkania? Czy każdy potrzebuje opieki zdrowotnej? W każdym kraju na świecie są ludzie głodni, dotknięci kryzysem bezdomności (którzy są zmuszeni nazywać ławki w parku swoimi łóżkami, jak pokazano na ), pozbawieni dostępu do usług medycznych. Z czego to wynika? Powodem jest rzadkość zasobów. Spróbujmy zgłębić kwestię rzadkości zasobów nieco dokładniej, ponieważ jest ona kluczowa dla zrozumienia tego, czym zajmuje się ekonomia.
### Problem rzadkości zasobów
Pomyśl o wszystkich rzeczach, które konsumujesz: jedzeniu, mieszkaniu, odzieży, transporcie, opiece zdrowotnej i rozrywce. Jak zdobywasz te dobra? Sam ich nie produkujesz. Nabywasz je. Dlaczego stać cię na kupowane rzeczy? Bo pracujesz i otrzymujesz za to wynagrodzenie. Jeśli sam tego nie robisz, robi to ktoś inny, kto kupuje ci wszystkie niezbędne produkty. Jednak większość z nas nigdy nie uzyskuje wystarczającego dochodu, aby móc nabyć wszystko, czego pragnie. Dzieje się tak właśnie z powodu rzadkości zasobów. Jak zatem rozwiązać ten problem?
Każde społeczeństwo, niezależnie od tego, jak zamożni są jego obywatele, musi dokonywać wyborów dotyczących sposobu wykorzystania swoich zasobów. Rodziny muszą zdecydować, czy wydadzą pieniądze na nowy samochód, czy na ekskluzywne wakacje. Jednostki samorządowe (gminy, powiaty i województwa) muszą określić, czy przeznaczyć większą część budżetu na policję i ochronę przeciwpożarową, czy na system oświaty. Państwa muszą dokonać wyboru, czy przeznaczyć więcej środków na obronę narodową, czy na ochronę środowiska. W większości przypadków w budżecie po prostu nie ma wystarczającej ilości pieniędzy, aby sfinansować wszystkie potrzeby. Jak najlepiej wykorzystać nasze ograniczone zasoby, aby uzyskać możliwie najwięcej towarów i usług? Istnieje kilka opcji. Po pierwsze, każdy z nas mógłby wyprodukować wszystko to, co sam konsumuje. Alternatywnie każdy mógłby wyprodukować część tego, co chciałby skonsumować, a resztę zapewnić sobie w drodze wymiany. Przyjrzyjmy się tym opcjom. Dlaczego sami nie wytwarzamy po prostu wszystkich rzeczy, które są nam niezbędne? Przypomnijmy sobie nieodległe przecież czasy, kiedy ludzie potrafili własnoręcznie zaspokoić znacznie więcej swoich potrzeb niż my dzisiaj, od budowania domów, przez uprawę roli i polowanie, po naprawę sprzętów domowych. Większość z nas nie wie, jak zrobić wszystkie – lub cokolwiek – z wymienionych wcześniej rzeczy, ale nie dlatego, że nie byliśmy w stanie się tego nauczyć. Raczej nie musimy tego robić, ponieważ żyjemy w społeczeństwie opartym na podziale i specjalizacji pracy. Na szczególne znaczenie podziału pracy zwrócił uwagę Adam Smith (1723–1790) w swoim dziele Bogactwo narodów.
### Podział i specjalizacja pracy
Wielu autorów pisało o ekonomii stulecia przed Smithem, ale on jako pierwszy zajął się problemami gospodarczymi w sposób kompleksowy. Dlatego opublikowanie w 1776 r. jego dzieła znanego pod skróconym tytułem Bogactwo narodów uznane zostało za narodziny nowożytnej ekonomii. W pierwszym rozdziale Smith wprowadził pojęcie podziału pracy (ang. ), co oznaczało podział procesu wytwarzania danego produktu na szereg prostych cząstkowych czynności wykonywanych przez różnych pracowników, w miejsce sytuacji, w której jeden człowiek wykonuje wszystkie zadania związane z produkcją tego przedmiotu.
Aby zilustrować ideę podziału pracy, Smith policzył, ile czynności składało się na wykonanie szpilki: przycięcie kawałka drutu na odpowiednią długość, wyprostowanie go, umieszczenie główki na jednym końcu i zaostrzenie drugiego oraz pakowanie szpilek, żeby wymienić tylko kilka z nich. Wierzcie lub nie, ale Smith naliczył 18 różnych zadań, które wykonywali różni ludzie, w celu wyprodukowania gotowych do sprzedaży szpilek!
Nowoczesne przedsiębiorstwa, niezależnie od ich rozmiarów, również dokonują podziału zadań. Nawet stosunkowo prosty rodzaj działalności, jakim jest restauracja, dzieli proces produkcyjny polegający na serwowaniu posiłków gościom na szereg czynności wykonywanych przez wiele osób – szefa kuchni, specjalistów zajmujących się sosami i innymi elementami dań, mniej wykwalifikowaną pomoc kuchenną wykonującą proste działania, pracownika witającego klientów i zajmującego się rezerwacjami, kelnerów, sprzątaczy oraz menedżera do obsługi wypłat i rachunków, nie wspominając o ludziach odpowiedzialnych za zakupy żywności, mebli, sprzętu kuchennego i kontakty z właścicielem budynku, w którym restauracja się znajduje. Bardziej złożona działalność, taka jak fabryka wytwarzająca obuwie () lub szpital, może opierać się na pracy osób zatrudnionych na setkach różnych stanowisk.
### Dlaczego podział pracy zwiększa produkcję
Kiedy już uda się podzielić proces produkcji dóbr lub usług na niezależne czynności wykonywane przez różne osoby, pracownicy i firmy mogą wytwarzać większą liczbę produktów. Analizując sposób funkcjonowania obserwowanych przez siebie wytwórców szpilek, Smith zauważył, że jeden pracownik wykonujący wszystkie 18 czynności może wyprodukować 20 szpilek dziennie, ale mała firma składająca się z 10 pracowników (niektórzy z nich musieliby wykonać dwa lub trzy zadania z grupy wszystkich związanych z wytwarzaniem szpilek) może wyprodukować 48 tys. szpilek dziennie. Dlaczego grupa robotników, z których każdy specjalizuje się w określonych zadaniach, może wytworzyć o wiele więcej niż ta sama liczba robotników, którzy próbują samodzielnie zrealizować cały proces produkcji określonego dobra lub usługi?
Po pierwsze, specjalizacja (ang. ) w konkretnym, cząstkowym obszarze pracy pozwala pracownikom skupić się na tych elementach procesu produkcyjnego, w których mają przewagę. (W kolejnych rozdziałach rozwiniemy tę ideę, wprowadzając i omawiając pojęcie przewagi komparatywnej (ang. ). Ludzie mają różne umiejętności, talenty i zainteresowania, więc niektóre czynności będą wykonywać lepiej i szybciej niż inni. We współczesnym świecie specjalizacja w wykonywaniu określonych zadań najczęściej jest wynikiem wyboru konkretnej ścieżki edukacyjnej, która z kolei kształtowana jest przez zainteresowania i uzdolnienia. Na przykład tylko ci, którzy mają wykształcenie medyczne, posiadają niezbędne kwalifikacje do pracy lekarza. W przypadku niektórych dóbr główny wpływ na specjalizację w ich produkcji ma umiejscowienie geograficzne przedsięwzięcia. Zdecydowanie łatwiej być sadownikiem w okolicach Grójca lub Warki niż na Suwalszczyźnie, z kolei hotel turystyczny prościej jest prowadzić w Augustowie niż w Warce czy Grójcu. W dużym mieście lub w jego pobliżu łatwiej jest przyciągnąć liczbę klientów wystarczającą do dobrego prosperowania pralni chemicznej lub kina, co na słabo zaludnionym obszarze wiejskim z pewnością będzie problemem. Bez względu na powód, jeśli ludzie specjalizują się w wytwarzaniu tego, co robią najlepiej, będą bardziej efektywni, niż gdyby koncentrowali się na wykonywaniu kilku różnych czynności, robiąc zarówno to, co umieją najlepiej, jak i to, w czym nie są zbyt biegli.
Po drugie, pracownicy, którzy specjalizują się w określonych zadaniach, najczęściej uczą się produkować szybciej i osiągać wyższą jakość wytwarzanych produktów. Ten schemat odnosi się do różnych profesji i stanowisk, w tym pracowników linii montażowych, którzy składają samochody, fryzjerów układających wymyślne fryzury i lekarzy, którzy wykonują operacje serca. Wyspecjalizowani pracownicy często znają swoje zadania na tyle dobrze, że mogą proponować innowacyjne, czyli szybsze i lepsze sposoby wykonywania tej pracy.
Podobny wzorzec występuje również w przedsiębiorstwach. W wielu przypadkach firma, która koncentruje się na jednym lub tylko kilku produktach (nazywanych czasami kluczowymi kompetencjami (ang. ), odnosi większe sukcesy niż podmioty, które próbują wytwarzać szeroką gamę produktów.
Po trzecie, specjalizacja pozwala przedsiębiorstwom wykorzystywać korzyści skali (ang. ), co oznacza, że w przypadku wielu rodzajów dóbr wraz ze wzrostem poziomu produkcji średni koszt wytworzenia każdej jednostki spada. Na przykład jeśli fabryka wytwarza tylko 100 samochodów rocznie, każdy samochód będzie przeciętnie dość drogi w produkcji, gdyż będzie się ona odbywać w sposób chałupniczy. Jeśli jednak zakład produkuje 50 tys. samochodów na rok, może stworzyć zautomatyzowaną linię montażową z ogromnymi maszynami i pracownikami wykonującymi specjalistyczne zadania, a przeciętny koszt produkcji jednego auta będzie niższy. Ostatecznie dzięki temu, że pracownicy mogą skupić się na swoich preferencjach i talentach, nauczyć się lepiej wykonywać wyspecjalizowane zadania i pracować w większych organizacjach, społeczeństwo jako całość może produkować i konsumować znacznie więcej niż w sytuacji, w której każda osoba próbowałaby sama wytwarzać wszystkie zużywane przez siebie towary i usługi. Podział i specjalizacja pracy są sposobem radzenia sobie z rzadkością zasobów.
### Handel i rynki
Aby zaspokoić różnorodne potrzeby w gospodarce opartej na podziale pracy, musimy za uzyskane wynagrodzenie kupować wszystkie potrzebne nam dobra. Innymi słowy, im bardziej zaawansowany podział pracy, tym większy zakres wymiany towarowej w ramach regionów, narodów i świata. Oznacza to, że pomyślność ekonomiczna zależy od umiejętności pokojowej współpracy.
Podział pracy to także podział wiedzy. Aby odtwarzać muzykę, nie musisz nic wiedzieć o elektronice czy sposobach kompresji dźwięku – po prostu kupujesz smartfon lub tablet, pobierasz muzykę (lub logujesz się do serwisów streamingowych) i słuchasz. Nie musisz nic wiedzieć o sztucznych włóknach czy budowie maszyn do szycia, jeśli potrzebujesz kurtki – zwyczajnie kupujesz ją i nosisz. Możesz nie mieć pojęcia o silnikach spalinowych, a mimo to prowadzić samochód – po prostu wsiadasz i jedziesz. Zamiast próbować zdobyć całą wiedzę i umiejętności związane z produkcją wszystkich dóbr i usług, które chcesz konsumować, rynek pozwala ci nauczyć się wyspecjalizowanego zestawu umiejętności, a następnie wykorzystać otrzymywane wynagrodzenie do zakupu towarów, których potrzebujesz. W ten sposób nowoczesne społeczeństwo wykształciło silną gospodarkę.
### Korzyści ze studiowania ekonomii
Teraz, gdy masz już ogólny pogląd na to, czym zajmuje się ekonomia, szybko omówmy, dlaczego warto ją studiować. Ekonomia, wbrew pozorom, nie jest zbiorem faktów do zapamiętania, chociaż istnieje wiele ważnych pojęć, których należy się nauczyć. Zamiast tego myśl o ekonomii jako zbiorze pytań, na które należy odpowiedzieć, lub łamigłówkach do rozwiązania. Co najważniejsze, ekonomia dostarcza narzędzi i wskazuje sposoby rozwiązania tych zagadek. Jeśli jeszcze nie zaraziliście się pasją do ekonomii, oto inne ważne powody, dla których warto ją studiować:
1.
Praktycznie każdy istotny problem, przed którym stoi dziś świat, od globalnego ocieplenia, przez ubóstwo, po konflikty w Syrii, Afganistanie, Somalii i na Ukrainie, ma wymiar ekonomiczny. Jeśli chcesz uczestniczyć w rozwiązywaniu tych problemów, musisz być w stanie je zrozumieć. Rola ekonomii jest tu zatem kluczowa.
2.
Trudno przecenić znaczenie ekonomii dla zaangażowania w sprawy publiczne i świadomości obywatelskiej. Jeśli chcesz w racjonalny sposób dokonywać wyborów, musisz rozumieć konsekwencje uchwalanych w parlamencie ustaw i innych przepisów prawa. Czy wiesz, jakie są konstytucyjne limity długu publicznego, czy rozumiesz pojęcie reguły fiskalnej, czy znasz kompetencje Narodowego Banku Polskiego?
3.
Podstawowa znajomość zasad rządzących światem ekonomii sprawia, że lepiej rozumiesz rzeczywistość wokół ciebie. Czytając artykuły o tematyce ekonomicznej, będziesz w stanie ocenić argumenty autora. Kiedy usłyszysz kolegów z grupy, współpracowników lub polityków mówiących o gospodarce i ekonomii, zdołasz odróżnić racjonalną argumentację od bzdur. Poznasz nowe sposoby myślenia o bieżących wydarzeniach, o decyzjach osobistych i biznesowych, a także o polityce.
Nauka ekonomii nie wskaże zazwyczaj konkretnej odpowiedzi, ale pomoże naświetlić dostępne spektrum wyborów.
### Key Concepts and Summary
Ekonomia stara się rozwiązać problem rzadkości zasobów, który polega na tym, że ludzkie zapotrzebowanie na towary i usługi przekracza dostępną podaż przy cenie równej zero. Dla nowoczesnej gospodarki charakterystyczny jest podział pracy, w ramach którego ludzie zarabiają dzięki specjalizacji w produkcji konkretnych dóbr i usług, a następnie wykorzystują swój dochód do zakupu produktów, których potrzebują. Podział pracy pozwala jednostkom i przedsiębiorstwom specjalizować się i produkować więcej z kilku powodów: a) Umożliwia podmiotom ekonomicznym skoncentrowanie się na tych rodzajach działalności, w których posiadają przewagę ze względu na czynniki naturalne i poziom umiejętności; b) Zachęca je do uczenia się i innowacji; c) Pozwala im na wykorzystanie zjawiska korzyści skali. Podział i specjalizacja pracy działają tylko wtedy, gdy podmioty ekonomiczne mogą kupić na rynkach to, czego same nie produkują. Nauka ekonomii ułatwia zrozumienie głównych problemów, z jakimi boryka się dzisiejszy świat, przygotowuje do bycia świadomym obywatelem i pomaga stać się wszechstronnym obserwatorem rzeczywistości.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### References
Bureau of Labor Statistics, U.S. Department of Labor. 2015. "The Employment Situation—February 2015." Dostęp: 27 marca 2015. http://www.bls.
/news.release/pdf/empsit.pdf.
Williamson, Lisa. “US Labor Market in 2012.” Bureau of Labor Statistics. Dostęp 1 grudnia 2013. http://www.bls.gov/opub/mlr/2013/03/art1full.pdf. |
# Wstęp do mikroekonomii
## Mikroekonomia i Makroekonomia
Ekonomia zajmuje się dobrem wszystkich ludzi, zarówno pracujących, jak i pozostających bez pracy, tych o wysokich i tych o niskich dochodach. Dla ekonomistów konstatacja, iż produkcja użytecznych dóbr i usług może stwarzać problemy związane z zanieczyszczeniem środowiska, jest oczywista. Ekonomiści analizują, jak inwestycje w edukację pomagają rozwijać umiejętności pracowników. Ludzie zajmujący się zawodowo ekonomią opracowują metody pozwalające stwierdzić, kiedy duże przedsiębiorstwa lub największe związki zawodowe działają w sposób korzystny dla całego społeczeństwa, a kiedy ich posunięcia przynoszą korzyść wyłącznie ich właścicielom lub członkom organizacji. Ekonomiści zastanawiają się również, jak wydatki rządowe, podatki i regulacje wpływają na decyzje dotyczące produkcji i konsumpcji.
Powinno być już jasne, że ekonomia obejmuje znaczną liczbę zagadnień. Możemy podzielić ten obszar zainteresowań na dwie części. Mikroekonomia (ang. ) skupia się na działaniach poszczególnych podmiotów w gospodarce, takich jak gospodarstwa domowe, pracownicy i przedsiębiorstwa. Makroekonomia (ang. ) natomiast koncentruje się na całościowym spojrzeniu na gospodarkę. Obszar jej zainteresowań tworzą zagadnienia takie, jak wzrost produkcji, liczba bezrobotnych, wzrost cen, saldo budżetu i szerzej – sektora finansów publicznych oraz poziom eksportu i importu. Mikroekonomia i makroekonomia nie są odrębnymi dyscyplinami naukowymi, ale raczej komplementarnymi sposobami analizowania tego, co dzieje się w gospodarce. W dalszej części tego rozdziału wrócimy jeszcze do kwestii rozróżnienia między mikro- a makroekonomią i pokażemy, w jaki sposób metoda pracy ekonomistów wpływa na obszar zainteresowań obu sposobów analizy.
Aby zrozumieć, dlaczego obie perspektywy – mikro- i makroekonomiczna – są przydatne, rozważ problem badania ekosystemu biologicznego, jakim jest jezioro. Jedna z osób badających akwen może skupić się na konkretnych zagadnieniach: pewnych rodzajach glonów lub roślin; cechach poszczególnych ryb lub ślimaków; albo drzew porastających brzegi. Inna może potraktować obiekt badań całościowo: przeanalizować łańcuchy pokarmowe, zastanowić się, dzięki czemu ekosystem pozostaje w ogólnej równowadze i w jaki sposób zmiany w środowisku wpływają na tę równowagę. Oba podejścia są przydatne, przedmiotem obu jest to samo jezioro, ale punkty widzenia są różne. W podobny sposób mikro- i makroekonomia biorą pod lupę tę samą gospodarkę, ale każda z nich ma inną perspektywę.
Niezależnie od tego, czy zajmujesz się zbiornikami wodnymi, czy ekonomią, spostrzeżenia mikro i makro powinny się ze sobą łączyć. Podczas badania jeziora mikrospostrzeżenia na temat poszczególnych gatunków ułatwiają zrozumienie zależności w ramach łańcucha pokarmowego, podczas gdy makrospostrzeżenia dotyczące zależności między biocenozą i biotopem pomagają wyjaśnić dostosowania anatomiczne i fizjologiczne poszczególnych roślin i zwierząt zamieszkujących ten ekosystem.
W ekonomii na decyzje poszczególnych przedsiębiorstw wpływa to, czy gospodarka w skali makro działa sprawnie. Na przykład przedsiębiorstwa będą bardziej skłonne do zatrudniania pracowników, jeśli cała gospodarka będzie się dobrze rozwijać. Z kolei efekty makro ostatecznie zależą od decyzji mikroekonomicznych podejmowanych przez poszczególne gospodarstwa domowe i przedsiębiorstwa.
### Mikroekonomia
Od czego zależy sposób wydatkowania przez gospodarstwa domowe i pojedyncze osoby ich budżetów? Jaka kombinacja towarów i usług będzie najlepiej odpowiadać ich potrzebom i pragnieniom, a przy tym uwzględniać ograniczenia budżetowe, w ramach których muszą funkcjonować? W jaki sposób ludzie decydują, czy chcą pracować, a jeśli tak, to czy zamierzają pracować w pełnym, czy niepełnym wymiarze godzin? Jak podejmowane są decyzje dotyczące tego, ile zaoszczędzić na przyszłość lub czy bezpiecznie jest pożyczać, aby wydawać więcej, niż się aktualnie zarabia?
Jakie czynniki decydują o tym, co jest produkowane w danym przedsiębiorstwie i jaki będzie wolumen produkcji w konkretnym okresie? Co determinuje poziom cen, po jakich przedsiębiorstwo sprzedaje swoje towary? Co decyduje o tym, w jaki sposób przedsiębiorstwo będzie wytwarzać swoje produkty? Od czego zależy, ilu pracowników zatrudni? Jak firma będzie finansować własną działalność? W jakiej sytuacji zdecyduje się ją rozszerzyć, zawęzić, a nawet zakończyć? Ten podręcznik pozwoli na zapoznanie się z teorią zachowań konsumentów, sposobami i zasadami funkcjonowania przedsiębiorstw, pokaże sposób działania rynków pracy i rynków innych czynników produkcji. Umożliwi także odpowiedź na pytanie, dlaczego rynki czasami nie funkcjonują prawidłowo.
### Makroekonomia
Od czego zależy poziom aktywności ekonomicznej w społeczeństwie? Innymi słowy, co decyduje o tym, ile dóbr i usług faktycznie produkuje dany kraj? Jakie czynniki determinują liczbę dostępnych w gospodarce miejsc pracy? Co wyznacza standard życia społeczeństwa? Co powoduje, że gospodarka przyspiesza lub zwalnia, notując wzrost lub spadek zatrudnienia? I wreszcie co sprawia, że gospodarka rozwija się w długim okresie? To tylko niektóre z zagadnień stanowiących przedmiot rozważań makroekonomistów, które są omawiane w każdym podręczniku do makroekonomii. Przekraczają one jednak obszar zainteresowania uwzględniony w niniejszej publikacji.
### Key Concepts and Summary
Mikroekonomia i makroekonomia to dwa różne spojrzenia na gospodarkę. Perspektywa mikroekonomiczna skupia się na jej częściach składowych: jednostkach, firmach i gałęziach przemysłu. Perspektywa makroekonomiczna postrzega gospodarkę jako całość, koncentrując się na celach takich, jak ograniczanie bezrobocia czy inflacji i wzrost poziomu życia.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
|
# Wstęp do mikroekonomii
## Jak ekonomiści wykorzystują teorie i modele do zrozumienia problemów ekonomicznych
John Maynard Keynes (1883–1946), jeden z najwybitniejszych ekonomistów XX w., zwrócił uwagę, że ekonomia to nie tylko nauka, ale także sposób myślenia. Keynes () napisał we wstępie do książki kolegi ekonomisty: „[Ekonomia] jest raczej metodą niż doktryną, aparatem usprawniającym działanie umysłu, techniką myślenia, która pomaga jej użytkownikowi wyciągać właściwe wnioski”. Innymi słowy, ekonomia uczy, jak myśleć, a nie – co myśleć.
Ekonomiści patrzą na świat z innej perspektywy niż antropolodzy, biolodzy, historycy czy specjaliści jakiejkolwiek innej dyscypliny naukowej. Analizują zagadnienia i problemy za pomocą teorii ekonomicznych, opierających się na konkretnych założeniach dotyczących ludzkiego zachowania, bywa, że różnych niż te, które mógłby zastosować antropolog lub psycholog. Teoria (ang. ) to uproszczony obraz rzeczywistości. Celem teorii jest uchwycenie kluczowych zmiennych badanego zjawiska i ujawnienie charakteru zależności między tymi zmiennymi. Dobra teoria jest na tyle prosta, by można ją było zrozumieć, a jednocześnie wystarczająco złożona, aby uchwycić kluczowe cechy badanego obiektu lub zagadnienia.
Czasami ekonomiści używają terminu model (ang. ) zamiast teoria. Mówiąc ściśle, teoria jest bardziej abstrakcyjną formą, podczas gdy model jest empirycznym narzędziem umożliwiającym testowanie teorii. Zazwyczaj wykorzystujemy modele do testowania teorii, ale w tym podręczniku będziemy używać tych terminów zamiennie.
Na przykład architekt, który projektuje duży budynek biurowy, często wykonuje fizyczny model – makietę – aby pokazać, jak cała dzielnica miasta będzie wyglądała po wzniesieniu nowego biurowca. Firmy często budują modele swoich nowych wyrobów, które są uproszczoną i niedopracowaną wersją produktu końcowego, ale mogą posłużyć jako ilustracja tego, jak będzie on funkcjonował.
Przykładem prostego modelu, który jednak ilustruje skomplikowane zależności ekonomiczne, jest krzywa możliwości produkcyjnych, która została omówiona w kolejnym rozdziale niniejszego podręcznika. Zawiera ona niezbędny element upraszczający (wybór między dwoma produktami lub grupami produktów (edukacją i opieką zdrowotną) pozwala jednak na zilustrowanie i zrozumienie tak fundamentalnych zjawisk, jak koszt alternatywny, prawo malejących przychodów krańcowych czy przewaga komparatywna.
Ekonomiści dysponują całym zestawem mniej lub bardziej skomplikowanych teorii, tak jak stolarz posiada zestaw narzędzi umożliwiających mu pracę. Kiedy dostrzegają interesujący problem ekonomiczny, do jego przeanalizowania próbują użyć jednej z dostępnych teorii. Wybór jest rzecz jasna konsekwencją całego dorobku tej dyscypliny, zgromadzonego i opisanego w książkach i artykułach naukowych. Oczywiście, czasami nie da się dokonać analizy za pomocą teorii już istniejących i należy stworzyć nową. Wbrew pozorom nie dzieje się tak zbyt często. Problemy ekonomiczne, w których kontekście nie da się wykorzystać choćby elementów dotychczasowych teorii, pojawiają się dość rzadko. Jest to o tyle ważne, że niekiedy analiza prostych zależności liczbowych pozwala snuć najbardziej fantastyczne przypuszczenia dotyczące relacji między różnymi parametrami ekonomicznymi a nieekonomicznymi (np. występowanie plam na Słońcu i zmiany cen akacji na giełdzie).
Jeśli jednak te zależności (ekonomiści nazywają je korelacjami, czyli współwystępowaniem) nie są zakorzenione w spójnej teorii, najczęściej są odrzucane. Warto zapamiętać w tym kontekście jedno z najważniejszych prawideł dotyczących zależności ekonomicznych. Współwystępowanie dwóch zjawisk nie zawsze oznacza, że istnieje między nimi zależność przyczynowo-skutkowa. Istnienie takiej zależności musi zostać wykazane na podstawie spójnej teorii – istniejącej lub nowej.
Ekonomiści lubią ilustrować swoje teorie różnego rodzaju diagramami (wykresami i równaniami matematycznymi), co pozwala na łatwiejsze zaprezentowanie opisywanych przez te teorie zależności. (Nie martw się. W tym podręczniku będziemy używać głównie wykresów). Nie jest tak, że ekonomiści najpierw wymyślają rozwiązanie problemu, a dopiero potem rysują wykres. Wykresy są dla nich narzędziami pozwalającymi szukać odpowiedzi. Niektóre problemy ekonomiczne można rozwiązywać bez odwoływania się do modeli i skomplikowanych teorii. Jeśli jednak będziesz dalej studiować ekonomię, szybko napotkasz problemy i zagadnienia, których analiza będzie wymagała wykorzystania nie tylko sformalizowanych teorii, lecz także wykresu, diagramu lub zestawu równań. Najbardziej znanymi teoriami ekonomicznymi są prawdopodobnie te dotyczące zależności między ceną a wielkością zapotrzebowania (popyt) oraz ceną a wielkością produkowaną i sprzedawaną przez przedsiębiorstwa (podaż).
### Key Concepts and Summary
Głównymi narzędziami używanymi przez ekonomistów są teorie lub modele ekonomiczne. Teoria nie jest ilustracją rozwiązania problemu. Teoria jest raczej narzędziem służącym znalezieniu właściwego rozwiązania.
### Self-Check Question
### Review Questions
### Critical Thinking Questions
|
# Wstęp do mikroekonomii
## Jak zorganizować gospodarkę: przegląd systemów gospodarczych
Zastanów się, jak złożonym systemem jest nowoczesna gospodarka. Obejmuje ona sferę produkcji dóbr i usług, organizację różnych sposobów ich sprzedaży i zakupu oraz zatrudnianie niezbędnych do wytworzenia czynników produkcji (pracowników, kapitału i ziemi). Aktywność gospodarcza każdego człowieka jest powiązana z aktywnością tysięcy, a nawet milionów innych podmiotów (ludzi i przedsiębiorstw). Kto organizuje i koordynuje ten system? Jaki mechanizm gwarantuje, że liczba wyprodukowanych telewizorów jest z grubsza równa wielkości zapotrzebowania na ten towar? Co, a może kto, sprawia, że w branży elektronicznej pracuje odpowiednia liczba pracowników? Kto dba o to, by telewizory były produkowane w najlepszy możliwy sposób? Jak to wszystko się dzieje?
Ekonomiści rozróżniają trzy podstawowe modele organizacji funkcjonowania gospodarki. Pierwszym z nich jest gospodarka tradycyjna (ang. ), która jest najstarszym systemem ekonomicznym, wciąż stosowanym w niektórych częściach Azji, Afryki i Ameryki Południowej. Tradycyjne gospodarki organizują swoją sferę ekonomiczną w sposób niezmienny od setek, a nawet tysięcy lat (tj. zgodnie z tradycją). Kolejne pokolenia, postępując zgodnie z tradycją i zwyczajami swoich przodków, naśladują dotychczasowe metody produkcji. Większość ludzi zajmuje się działalnością rolniczą. To, co każdy produkuje, określa również to, co konsumuje. Ponieważ sposobem życia rządzi tradycja, postęp i rozwój gospodarczy są w tym systemie niewielkie.
Gospodarki nakazowo-rozdzielcze (ang. ) funkcjonują inaczej – cały wysiłek jest w nich podporządkowany celom wyznaczanym przez władcę lub klasę rządzącą. Dobrym przykładem jest tu starożytny Egipt, gdzie duża część życia gospodarczego podporządkowana była budowie piramid, czyli grobowców faraonów, takich jak te na . Innym przykładem jest średniowieczny feudalizm: senior, będąc właścicielem lub dysponentem ziemi, przydzielał ja swoim wasalom i zapewniał im ochronę na wypadek wojny. W zamian wasale byli zobowiązani dostarczać seniorowi siłę roboczą i żołnierzy. W dwudziestym stuleciu w wielu krajach tzw. bloku wschodniego (w tym w Polsce) wprowadzono różne odmiany gospodarki nakazowo-rozdzielczej.
W gospodarce nakazowo-rozdzielczej to państwo decyduje o tym, jakie dobra i usługi będą produkowane i jakie ceny będą za nie pobierane. Państwo decyduje również o tym, jakie metody produkcji zastosować i ustala wysokość wynagrodzeń (tzw. siatki płac) dla wszystkich lub zdecydowanej większości zatrudnionych. Państwo, na zasadach wyłączności, decyduje o organizacji i finansowaniu takich potrzeb, jak opieka zdrowotna i edukacja, za które korzystający z nich obywatele nie ponoszą bezpośrednich opłat (jest to tzw. konsumpcja zbiorowa finansowana ze środków publicznych). Spośród istniejących współcześnie krajów w największym stopniu zorganizowane zgodnie z zasadami gospodarki nakazowo-rozdzielczej są Kuba i Korea Północna.Gospodarka rynkowa
Podczas gdy gospodarki nakazowo-rozdzielcze mają bardzo scentralizowany system podejmowania decyzji gospodarczych, w gospodarkach rynkowych jest on zdecydowanie bardziej zdecentralizowany. Rynek (ang. ) to instytucja kojarząca nabywców i sprzedawców (którymi mogą być osoby fizyczne lub przedsiębiorstwa) konkretnego dobra lub usługi. Giełda nowojorska jest doskonałym przykładem rynku, który pozwala na zawieranie transakcji przez kupujących i sprzedających. W gospodarce rynkowej (ang. ) podejmowanie decyzji jest zdecentralizowane. Gospodarki rynkowe opierają się na prywatnych przedsiębiorstwach (ang. ): podmioty prywatne (jednostki lub grupy osób) posiadają i zarządzają środkami produkcji. Firmy dostarczają towary i usługi, zaspokajając popyt. (W gospodarce nakazowej zasobami i przedsiębiorstwami zarządza państwo). Podaż towarów i usług zależy od zapotrzebowania (popytu). Dochód danej osoby opiera się na jej zdolności do przekształcania zasobów (zwłaszcza pracy) w coś, co stanowi wartość dla społeczeństwa. Im bardziej społeczeństwo ceni pracę danej osoby, tym wyższy uzyskuje ona dochód (pomyśl w tym kontekście o znanych aktorach i sportowcach, np. Robercie Lewandowskim). W tym systemie podstawowym kryterium decyzji są ceny kształtowane przez mechanizm popytu i podaży, a głównym motywem działalności przedsiębiorstw jest zysk.
Większość gospodarek w realnym świecie wykorzystuje elementy i rozwiązania ze wszystkich systemów (nakazowo-rozdzielczego i rynkowego, a nawet tradycyjnego). Ekonomiści używają w ich kontekście określenia „gospodarki mieszane”. Gospodarka USA znajduje się niemal na końcu spektrum systemów zorientowanych na zasady rynkowe. Z kolei wiele krajów w Europie i Ameryce Łacińskiej, choć wykorzystuje głównie mechanizmy rynkowe, w znacznie większym stopniu polega na decyzjach podejmowanych w sektorze publicznym (przez państwo) niż dzieje się to w USA. Chiny i Rosja w ciągu ostatnich kilku dekad systematycznie zwiększały zakres rozwiązań rynkowych w swoich gospodarkach, w dalszym ciągu jednak pozostają bliżej końca spektrum systemów zorientowanych na model nakazowo-rozdzielczy. Przedstawione poniżej dane Heritage Foundation klasyfikują kraje zgodnie ze stopniem wolności gospodarczej.
### Przepisy prawa – zasady gry
Wolność gospodarcza i państwo jako regulator działalności gospodarczej nie wykluczają się. Rynki i przepisy prawa zawsze pozostawały ze sobą w ścisłym związku. Całkowicie wolny rynek w realnym świecie nie istnieje, a przepisy prawa zawsze określają „reguły gry” w gospodarce. Te kraje, które są przede wszystkim zorientowane na rynek, mają mniej regulacji – w idealnym wariancie tylko te, które pozwalają utrzymać równe szanse dla wszystkich podmiotów gospodarczych. Przepisy regulują wówczas kwestie takie, jak ochrona własności prywatnej przed kradzieżą, ochrona ludzi przed przemocą, egzekwowanie zawartych umów, zapobieganie oszustwom i sposób pobierania podatków. I odwrotnie, nawet gospodarki oparte niemal całkowicie na mechanizmie nakazowo-rozdzielczym zachowują szczątkowe rynki umożliwiające kupowanie i sprzedawanie wybranych produktów, zostawiając tym samym swoim obywatelom ograniczony wybór tego, co chcą za zarobione pieniądze nabyć. Niemniej rządy tych krajów oczywiście w dalszym ciągu ustalają zarówno wolumen produkcji, jak i ceny większości wytwarzanych towarów. W związku z tym w gospodarkach silnie regulowanych często występuje szara strefa (ang. ), czyli czarne rynki, na których kupujący i sprzedający dokonują transakcji bez zgody i poza kontrolą państwa. Przykładem takiej szarej strefy był zakup walut poza systemem bankowym w Polsce przed 1989 r., który – jakkolwiek nielegalny – był jednocześnie niezwykle rozpowszechniony.
### Nasilenie trendów globalizacyjnych
Dla ostatnich dziesięcioleci charakterystyczny był trend oznaczający nasilanie się globalizacji (ang. ), czyli rozszerzających się kulturowych, politycznych i ekonomicznych powiązań między ludźmi na całym świecie. Jednym z mierników globalizacji jest rosnąca wielkość i wartość transgranicznych zakupów dóbr i usług oraz transferu aktywów – innymi słowy, międzynarodowy handel i przepływy kapitału finansowego.
Przyspieszająca globalizacja gospodarek jest napędzana wieloma czynnikami. Udoskonalenia w transporcie wodnym, których przykładem jest kontenerowiec na , oraz rozwijający się transport lotniczy obniżyły koszty przewozu towarów między krajami i kontynentami. Innowacje w informatyce i telekomunikacji sprawiły, że zarządzanie procesem produkcyjnym obejmującym fabryki położone w różnych krajach i na różnych kontynentach stało się łatwiejsze i tańsze. Wiele wartościowych dóbr utraciło swoją materialną formę lub może być dostarczane z pominięciem osobistego kontaktu sprzedawców i nabywców, np: oprogramowanie komputerowe, porady finansowe, planowanie podróży, muzyka, książki i filmy, projekty nowych budynków. Te i wiele innych produktów można coraz taniej przesyłać, wykorzystując sieci telekomunikacyjne i połączenia komputerowe. Wreszcie międzynarodowe umowy i traktaty obniżające cła i bariery pozataryfowe tworzą bodźce do wzrostu globalnej wymiany handlowej.
przedstawia jedną z miar globalizacji. Zaprezentowano w niej odsetek krajowej produkcji, która została wyeksportowana, dla wybranej grupy krajów w latach 2015–2020, wg danych Banku Światowego. Eksport (ang. ) to miara wartości dóbr i usług, które produkuje się w kraju i sprzedaje za granicą. Import (ang. ) z kolei to wartość towarów, które zostały wytworzone za granicą, a następnie sprowadzone i sprzedane na terenie danego kraju. Natomiast produkt krajowy brutto (PKB) (ang.) mierzy wielkość całkowitej produkcji wytworzonej na określonym obszarze (najczęściej na terenie kraju) w jednostce czasu (najczęściej spotykane jest ujęcie roczne). Relacja wartości eksportu i PKB pokazuje, jaka część całkowitej produkcji gospodarczej danego państwa jest sprzedawana w innych krajach.
W ciągu ostatnich kilku dekad udział eksportu w PKB rósł w niemal wszystkich krajach. Warto jednak zwrócić uwagę, iż relacja eksportu do PKB jest zdecydowanie niższa w dużych krajach (takich jak USA) w porównaniu z małymi gospodarkami Belgii, Korei Południowej czy Kanady. Te ostatnie muszą po prostu prowadzić handel z innymi krajami, aby w pełni wykorzystać podział pracy, specjalizację i korzyści skali. W tym sensie globalizacja ma mniejszy wpływ na ogromną gospodarkę USA niż na większość innych krajów. Dodatkowo, rok 2020 oznaczał w większości krajów spadek relacji eksportu do PKB, co było oczywiście konsekwencją pandemii wywołanej przez koronawirusa.
Dane zawarte w wskazują, że wiele krajów o średnich i niskich dochodach, takich jak Meksyk i Chiny, w ostatnich dekadach również doświadczyło gwałtownego nasilenia procesów globalizacyjnych. Gdyby astronauta na orbicie mógł założyć specjalne okulary, dzięki którym wszystkie transakcje gospodarcze na Ziemi byłyby dlań widoczne jako jaskrawe kolorowe linie, zobaczyłby planetę pokrytą siecią połączeń. .
Pomimo nasilenia trendów globalizacyjnych w ostatnich latach można było również dostrzec narastający sprzeciw wobec tego procesu i jego konsekwencji, wyrażany przez mieszkańców wielu krajów, zaniepokojonych utratą miejsc pracy, malejącym zakresem decyzji podejmowanych przez lokalne rządy i wzrostem nierówności dochodowych. Najważniejszymi znakami tego sprzeciwu były głosowanie w Wielkiej Brytanii w 2016 r. za wyjściem z Unii Europejskiej (tj. Brexit) oraz wybór Donalda J. Trumpa na prezydenta USA.
Po przeczytaniu tego rozdziału zapewne znacznie lepiej rozumiesz, czym zajmuje się ekonomia. Zanim jednak przejdziesz do dalszej lektury, koniecznie zapoznaj się z ważnym dodatkiem do tego rozdziału, . Jest on niezbędny do lepszego poznania sposobów wykorzystywania modeli w ekonomii.
### Key Concepts and Summary
Aktywność ekonomiczna społeczeństwa może przybrać formę gospodarki tradycyjnej, nakazowo-rozdzielczej lub rynkowej. W większości krajów występują rozwiązania z każdego z tych modeli. W ciągu ostatnich kilku dekad można było zaobserwować narastanie procesów globalizacyjnych, co było konsekwencją rozwoju sieci handlowych i finansowych przekraczających granice państw i powodujących coraz większą współzależność przedsiębiorstw i pracowników z różnych krajów.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### References
The Heritage Foundation. 2015. "2015 Index of Economic Freedom." Dostęp: 11 marca 2015. http://www.heritage.org/index/ranking.
Garling, Caleb. “S.F. plane crash: Reporting, emotions on social media,” The San Francisco Chronicle. 7 lipca 2013. http://www.sfgate.com/news/article/S-F-plane-crash-Reporting-emotions-on-social-4651639.php.
Irvine, Jessica. “Social Networking Sites are Factories of Modern Ideas.” The Sydney Morning Herald. 25 listopada, 2011.http://www.smh.com.au/federal-politics/society-and-culture/social-networking-sites-are-factories-of-modern-ideas-20111124-1nwy3.html#ixzz2YZhPYeME.
Pew Research Center. 2015. "Social Networking Fact Sheet." Dostęp: 11 marca, 2015. http://www.pewinternet.org/fact-sheets/social-networking-fact-sheet/.
The World Bank Group. 2015. "World Data Bank." Dostęp: 30 marca, 2014. http://databank.worldbank.org/data/. |
# Wybory w świecie rzadkości zasobów
## Wprowadzenie do rozdziału
Kiedy przypomnisz sobie koncepcję rzadkości zasobów, łatwo zrozumiesz, że każdy wybór uwzględniający dobra, którymi zajmuje się ekonomia (czyli niemal wszystkie), wiąże się z kosztem („coś za coś”).
W 1968 r. Rolling Stones nagrali piosenkę You Can’t Always Get What You Want („Nie zawsze możesz dostać to, czego chcesz”). Ekonomiści musieli zareagować na ten tytuł śmiechem, ponieważ od dziesięcioleci mówili to samo. Angielski badacz Lionel Robbins (1898–1984) w swoim Eseju o naturze i znaczeniu nauk ekonomicznych z 1932 r. w następujący sposób opisał, dlaczego nie zawsze otrzymuje się to, czego się chce:
Ponieważ ludzie żyją w świecie rzadkości zasobów, nie mogą mieć całego czasu, pieniędzy, rzeczy i doświadczeń, których pragną. Całe społeczeństwo również nie ma tego luksusu.
W tym rozdziale będziemy kontynuować nasze rozważania na temat rzadkości zasobów i ekonomicznego sposobu myślenia, wprowadzając najpierw trzy ważne koncepcje: koszt alternatywny, podejmowanie decyzji w oparciu o wielkości krańcowe i malejące korzyści. Później zastanowimy się, czy ekonomiczny sposób myślenia dokładnie opisuje, w jaki sposób dokonujemy wyborów i jak powinniśmy ich dokonywać. |
# Wybory w świecie rzadkości zasobów
## Jak ludzie dokonują wyborów w oparciu o ograniczenia budżetowe
Rozważ wybór typowego konsumenta, mającego ograniczony dochód, jaki może wydać na rzeczy, których pragnie. Załóżmy, że Tomek co tydzień ma do wydania 60 zł, które może przeznaczyć albo na bilety autobusowe i dojazdy do pracy, albo na kanapki zjadane na drugie śniadanie. Kanapki kosztują 12 zł za sztukę, a bilety autobusowe 3 zł. Możliwości, którymi dysponuje Tomek, widzimy na .
Linia ograniczenia budżetowego Tomka
Oś pionowa na rysunku przedstawia liczbę kanapek, a pozioma – liczbę biletów autobusowych. Jeśli Tomek wydaje wszystkie swoje pieniądze na kanapki, może sobie pozwolić na pięć tygodniowo (60 zł tygodniowo / 12 zł za kanapkę = 5 kanapek tygodniowo). Jeśli jednak to zrobi, nie będzie go w ogóle stać na bilety. Punkt A na rysunku pokazuje taki wybór (zero biletów autobusowych i pięć kanapek). Alternatywnie, jeśli Tomek wyda wszystkie swoje pieniądze na bilety autobusowe, może sobie pozwolić na zakup 20 tygodniowo (60 zł tygodniowo / 3 zł za bilet = 20 biletów tygodniowo). Wtedy jednak nie będzie go stać na kanapki. Punkt F pokazuje ten alternatywny wybór (20 biletów autobusowych i ani jednej kanapki).
Jeśli połączymy wszystkie punkty między A a F, otrzymamy linię ograniczenia budżetowego (zamiennie używa się również określenia ścieżka budżetu) (ang. ) Tomka. Pokazuje ona wszystkie kombinacje (koszyki) kanapek i biletów autobusowych, na które Tomek może sobie pozwolić, biorąc pod uwagę cenę obu towarów i jego budżet.
Jeśli Tomek zachowuje się jak większość ludzi, postawi na kombinację zawierającą zarówno bilety autobusowe, jak i kanapki. Oznacza to, że wybierze punkt na linii ograniczenia budżetowego, który znajduje się między koszykami A a F. Każdy punkt wzdłuż (lub poniżej) linii ograniczenia budżetowego pokazuje kombinację konsumpcji kanapek i biletów autobusowych, na którą Tomek może sobie pozwolić. Każdy punkt powyżej tej linii nie jest dla niego dostępny, ponieważ przewyższa sumę, którą Tomek dysponuje.
Linia ograniczenia budżetowego wyraźnie pokazuje wybór, z jakim boryka się Tomek, decydując o liczbie zakupionych kanapek i biletów autobusowych. Załóżmy, że konsumuje on obecnie koszyk dóbr przedstawiony w punkcie D, składający się z 12 biletów autobusowych i dwóch kanapek. Ile kosztowałaby Tomka jeszcze jedna kanapka? Odpowiedź „12 zł” byłaby naturalna, ale nie odzwierciedla ona sposobu myślenia ekonomistów. Zamiast tego ekonomiści pytają, z ilu biletów autobusowych Tomek musiałby zrezygnować, aby kupić jeszcze jedną kanapkę, nie przekraczając jednocześnie swojego budżetu. Ponieważ bilety autobusowe kosztują 3 zł, Tomek musiałby zrezygnować z czterech sztuk, aby pozwolić sobie na jeszcze jedną kanapkę. To jest prawdziwy koszt, z którym musi się skonfrontować Tomek.
### Pojęcie kosztu alternatywnego
Ekonomiści używają terminu koszt alternatywny lub inaczej koszt utraconych możliwości (ang. ) do wskazania, z czego trzeba zrezygnować, aby uzyskać rzecz, której się pragnie. Koncepcja kosztu alternatywnego zakłada, że kosztem jednego dobra jest stracona możliwość zrobienia lub kupienia czegoś innego. Krótko mówiąc, koszt alternatywny to wartość następnej najlepszej z punktu widzenia konsumenta alternatywy. Dla Tomka koszt alternatywny zjedzenia kanapki to cztery bilety autobusowe, z których musiałby zrezygnować. Wybierze kanapkę lub nie, w zależności od tego, czy jej wartość przewyższa wartość utraconej alternatywy – w tym przypadku czterech biletów autobusowych. Zmagając się z ograniczonością zasobów, ludzie nieuchronnie stają w obliczu wyborów, zmuszeni rezygnować z rzeczy, których pragną, aby uzyskać inne, pożądane jeszcze bardziej.
Każdy wybór ma swój koszt alternatywny. Jest to fundamentalna zasada ekonomii. Jeśli prześpisz swoje zajęcia z ekonomii w ostatnim rzędzie auli, kosztem alternatywnym tego wyboru będzie wiedza, której nie uzyskasz. Jeśli przeznaczasz swoje dochody na gry wideo, nie możesz ich wydawać na filmy. Jeśli zdecydujesz się poślubić jedną osobę, rezygnujesz z możliwości poślubienia kogokolwiek innego. Krótko mówiąc, z kosztem alternatywnym mamy do czynienia na co dzień, bo stanowi on część ludzkiej egzystencji.
Poniższa ramka przedstawia analizę tego, jak krok po kroku wyznaczyć linię ograniczenia budżetowego. Zapoznaj się z nią, aby zrozumieć inne ważne pojęcie – nachylenie – które dokładniej wyjaśniamy w .
### Określenie kosztu alternatywnego
W wielu przypadkach zasadne jest określanie kosztu alternatywnego jako ceny (ang. ). Jeśli twój kuzyn kupi nowy rower za 3000 zł, to kwota ta mierzy wielkość „innej konsumpcji”, z której zrezygnował. Ze względów praktycznych nie ma specjalnej potrzeby zidentyfikowania konkretnego alternatywnego produktu lub produktów, które mógłby kupić za te 3000 zł, ale czasami cena mierzona w jednostkach pieniężnych może nie odzwierciedlać dokładnie prawdziwego kosztu alternatywnego. Ten problem może być szczególnie istotny, gdy w grę wchodzą koszty czasu.
Rozważmy przykład szefa, który decyduje, że wszyscy pracownicy wezmą udział w dwudniowym wyjeździe integracyjnym. Koszt księgowy imprezy może obejmować wynajęcie zewnętrznej firmy konsultingowej, która poprowadzi szkolenie, a także zakwaterowanie i wyżywienie dla wszystkich uczestników. W tym przypadku pojawi się jednak również koszt alternatywny: podczas dwóch dni wyjazdu żaden z pracowników nie wykona swojej normalnej pracy.
Uczęszczanie na prywatny uniwersytet to kolejny przypadek, w którym koszt alternatywny przewyższa koszt bezpośredni. Koszty uczestnictwa w zajęciach obejmują czesne, książki, zakwaterowanie i wyżywienie oraz inne wydatki. Jednak dodatkowo, w godzinach, w których uczęszczasz na zajęcia i studiujesz, nie możesz wykonywać płatnej pracy. W związku z tym koszt studiów na prywatnej uczelni wiąże się zarówno z kosztem bezpośrednim, jak i kosztem alternatywnym w postaci utraconych dochodów.
W niektórych przypadkach uświadomienie sobie kosztu alternatywnego może zmienić twoje zachowanie. Wyobraź sobie np., że codziennie w pracy wydajesz 24 zł na lunch. Doskonale wiesz, że przyniesienie obiadu z domu kosztowałoby tylko 8 zł dziennie, więc koszt alternatywny kupienia obiadu w restauracji wynosi 16 zł każdego dnia (koszt zakupu obiadu równy 24 zł minus 8 zł, które kosztowałby obiad z domu). 16 zł dziennie to niewiele. Jeśli jednak policzysz, jaki jest koszt jedzenia w restauracji w ciągu roku – 250 dni roboczych w roku × 16 zł dziennie, co daje 4000 zł – otrzymasz cenę przyzwoitych wakacji. Jeśli opiszesz koszt alternatywny jako „fajne wakacje” zamiast „16 zł dziennie”, możesz dokonać innych wyborów.
### Analiza wielkości krańcowych i malejąca użyteczność krańcowa
Ramy ograniczeń budżetowych pomagają uświadomić sobie, że większość wyborów w świecie rzeczywistym nie polega na tym, aby skonsumować maksymalną ilość jednej lub drugiej rzeczy. Zamiast tego większość wyborów obejmuje analizę wielkości krańcowych (ang. ), co oznacza zbadanie korzyści i kosztów wyboru trochę większej lub trochę mniejszej ilości danego dobra. Ludzie w naturalny sposób porównują koszty i korzyści, ale często patrzymy na łączne koszty i korzyści, podczas gdy optymalny wybór wymaga porównania, jak kształtują się koszty i korzyści podczas zmiany jednego wyboru na inny. Możesz myśleć o analizie wielkości krańcowych jako o „analizie zmian”. Analiza wielkości krańcowych jest szeroko stosowana w ekonomii.
Przejdźmy teraz do pojęcia użyteczności (ang. ). Ludzie pragną towarów i usług, gdyż zaspokajają one ich potrzeby. Ekonomiści określają tę własność dóbr i usług jako użyteczność lub satysfakcję. Użyteczność, którą omawiamy w rozdziale o wyborach konsumenckich (), ma charakter subiektywny, ale to nie czyni jej mniej realną. Ekonomiści zazwyczaj zakładają, że im więcej jakiegoś dobra (np. kawałków pizzy) konsumujemy, tym większą użyteczność uzyskujemy (po prostu wolimy mieć więcej niż mniej). Jednocześnie użyteczność, jaką dana osoba uzyskuje ze skonsumowania pierwszej jednostki dobra, jest zazwyczaj większa niż użyteczność wynikająca ze skonsumowania piątej lub dziesiątej jednostki tego samego dobra. Kiedy Tomek dokonuje wyboru między kanapkami a biletami autobusowymi, kilka pierwszych przejazdów autobusem, na które się decyduje w ciągu dnia, może zapewnić mu dużą użyteczność. Być może pomogą mu one zdążyć jednego dnia zarówno na rozmowę o pracę, jak i zaplanowaną wcześniej wizytę u lekarza. Jednak późniejsze przejażdżki autobusem tego samego dnia wiążą się ze znacznie mniejszą użytecznością, ponieważ Tomkowi nigdzie się już nie spieszy i może przemieszczać się pieszo. Podobnie pierwsza kanapka, którą Tomek zdecyduje się kupić w ciągu dnia, będzie jego jedynym posiłkiem aż do wieczora, dzięki któremu zachowa koncentrację i trzeźwy umysł. Jeśli jednak Tomek codziennie je kanapki, ostatnich kilka z nich może smakować dość nijako. Zasada ogólna, zgodnie z którą konsumpcja pierwszych kilku jednostek jakiegokolwiek dobra zazwyczaj przynosi człowiekowi większą użyteczność niż konsumpcja kolejnych jednostek, jest powszechnym wzorcem. Ekonomiści nazywają ten wzorzec prawem malejącej użyteczności krańcowej (ang. ), co oznacza, że gdy ktoś otrzymuje kolejne jednostki danego dobra, dodatkowa (lub krańcowa) użyteczność z konsumpcji każdej kolejnej jednostki maleje. Innymi słowy, pierwszy kawałek pizzy przynosi więcej satysfakcji niż szósty.
Prawo malejącej użyteczności krańcowej wyjaśnia, dlaczego ludzie i społeczeństwa rzadko dokonują wyborów typu „wszystko albo nic”. Nie powiedziałbyś: „Moim ulubionym jedzeniem są lody, więc od teraz nie będę jeść nic innego”. Nawet jeśli twoje ulubione jedzenie zapewnia ci bardzo wysoki poziom użyteczności, gdy odżywiasz się wyłącznie tym produktem, dodatkowa lub krańcowa użyteczność z jego kilku ostatnich porcji nie będzie zbyt wysoka. Podobnie większość pracowników nie mówi: „Lubię wypoczynek, więc nigdy więcej nie będę pracował”. Pracownicy zdają sobie bowiem sprawę, że chociaż niektóre formy wypoczynku są bardzo przyjemne, połączenie czasu wolnego i braku dochodów nie jest już tak atrakcyjne. Ramy ograniczeń budżetowych sugerują, że kiedy ludzie dokonują wyborów w świecie rzadkości zasobów, używają analizy wielkości krańcowych i zastanawiają się, czy woleliby mieć trochę więcej, czy trochę mniej.
Racjonalny konsument kupuje dodatkową jednostkę jakiegoś produktu, tylko jeśli użyteczność krańcowa płynąca z tego wyboru przekracza koszt alternatywny. Załóżmy, że Tomek przesuwa się w dół swojego ograniczenia budżetowego z punktu A do punktu B, a następnie do punktu C i dalej. W miarę kupowania coraz większej liczby biletów autobusowych zmniejsza się ich krańcowa użyteczność, natomiast koszt alternatywny, jakkolwiek stały, oznacza, że porównanie użyteczności kanapek i biletów stopniowo przechyla szalę na korzyść jedzenia. Wcześniej czy później koszt alternatywny przekroczy krańcową użyteczność związaną z konsumpcją dodatkowego przejazdu komunikacją miejską (dodatkowego biletu autobusowego). Jeśli Tomek postępuje racjonalnie, nie kupi więcej biletów, gdy ich użyteczność krańcowa zrówna się z kosztem alternatywnym. Chociaż nie możemy (jeszcze) stwierdzić dokładnie, ile biletów autobusowych kupi Tomek, ta liczba prawdopodobnie nie będzie równa maksymalnej liczbie biletów, na którą może sobie pozwolić, czyli 20.
### Koszty utopione
Mechanizm ograniczenia budżetowego można wykorzystać do podjęcia decyzji odnoszących się do przyszłości: liczby/ilości towarów, które chcemy kupić, godzin, które przepracujemy lub części dochodu, jaki zaoszczędzimy. Ten proces decyzyjny abstrahuje jednak od naszych przeszłych wyborów. W związku z tym właściwy sposób analizy decyzji z wykorzystaniem ograniczenia budżetowego zakłada, że koszty utopione (ang. ), które są kosztami poniesionymi w przeszłości niemożliwymi do odzyskania, nie powinny wpływać na dokonywany obecnie wybór.
Rozważmy przypadek Heleny, która płaci 25 zł za obejrzenie filmu, ale po 30 minutach seansu już wie, że wybrała naprawdę kiepski film. Czy powinna zostać i obejrzeć pozostałą część tego wątpliwej jakości dzieła, bo zapłaciła za bilet, czy raczej powinna wyjść z kina? Pieniądze, które wydała, to koszt utopiony i jeśli kierownik kina nie wykaże się współczuciem, Helena nie otrzyma zwrotu pieniędzy. Jednak pozostanie na widowni oznacza konieczność ponoszenia kosztów alternatywnych związanych z jej utraconym czasem. Jej wybór ogranicza się do tego, czy spędzić następne 90 minut, cierpiąc z powodu „katastrofy filmowej", czy zrobić coś – cokolwiek – innego. Lekcja, jaką możne przynieść koncepcja kosztów utopionych, jest taka: należy zapomnieć o pieniądzach i czasie, które zostały bezpowrotnie stracone, i skupić się na kosztach i korzyściach krańcowych możliwości, z których wciąż możemy skorzystać.
Zarówno dla ludzi, jak i dla firm radzenie sobie z kosztami utopionymi może być frustrujące. Często oznacza bowiem przyznanie się do wcześniejszego błędu w ocenie. Na przykład wielu firmom trudno jest zrezygnować z nowego produktu, który ma słabe wyniki sprzedażowe, ponieważ wydały bardzo dużo pieniędzy na jego stworzenie i wprowadzenie na rynek. Niemniej jednak, biorąc pod uwagę kategorię kosztów utopionych w ocenie tego, czy w nowy produkt warto inwestować dodatkowy czas i zasoby, należy pominąć przeszłe wydatki i opierać się tylko na analizie przyszłych możliwych zdarzeń.
### Od modelu z dwoma dobrami do modelu z wieloma dobrami
Wykres z ograniczeniem budżetowym uwzględniający tylko dwa dobra, jak większość modeli użytych w tej książce, nie jest realistyczny. Wszak we współczesnej gospodarce ludzie wybierają spośród tysięcy towarów. Jednak myślenie o modelu z wieloma produktami jest prostym rozszerzeniem tego, o czym mówiliśmy dotychczas. Zamiast rysować tylko jedno ograniczenie budżetowe, pokazując wybór między dwoma dobrami, możesz narysować wiele ograniczeń budżetowych, prezentujących możliwe kompromisy między wieloma różnymi parami towarów. Wykres z dwoma dobrami, który tutaj przedstawiliśmy, wyraźnie pokazuje jednak, że każdy wybór ma swój koszt alternatywny, co stanowi naprawdę realistyczny punkt odniesienia dla mechanizmów funkcjonujących w rzeczywistym świecie.
### Key Concepts and Summary
Ekonomiści postrzegają rzeczywistość jako świat rzadkości zasobów, to znaczy świat, w którym potrzeby ludzi przekraczają zasób tego, co jest dostępne, przy cenie równej zero. W rezultacie zachowanie jednostek w kontekście dóbr ekonomicznych wiąże się z wyborami, w ramach których jednostki, firmy i społeczeństwo muszą zrezygnować z czegoś, czego wprawdzie pragną, aby uzyskać coś, czego pożądają bardziej. Linia ograniczenia budżetowego, która przedstawia różne kombinacje konsumpcji dwóch lub więcej dóbr, ilustruje zakres dostępnych wyborów. Relacja cen dwóch dóbr, między którymi dokonywany jest wybór, określa nachylenie linii ograniczenia budżetowego. Kombinacje dóbr znajdujące się powyżej linii ograniczenia budżetowego nie są osiągalne dla jednostek dokonujących wyboru.
Koszt alternatywny pokazuje, z czego musimy zrezygnować, dokonując konkretnych wyborów. Czasami można go wyrazić kwotowo, ale często dobrze jest rozważyć również wartość utraconego czasu lub ocenić go przez pryzmat innych zasobów, które musimy poświęcić, decydując się na skorzystanie z danej opcji.
Większość decyzji ekonomicznych to nie są wybory typu „wszystko albo nic”. Osoby podejmujące decyzje zazwyczaj analizują wartości krańcowe, zastanawiając się, jaki będzie układ korzyści i kosztów, jeśli zwiększą lub zmniejszą konsumpcję danego doba o relatywnie niewielką ilość. Prawo malejącej użyteczności krańcowej wskazuje, że gdy dana osoba otrzymuje więcej jednej rzeczy – niezależnie od tego, czy jest to określone dobro, czy inny zasób – dodatkowe korzyści związane z nabywaniem kolejnych jednostek mają tendencję do zmniejszania się. Ponieważ koszty utopione wystąpiły w przeszłości i ich odzyskanie jest niemożliwe, przy podejmowaniu bieżących decyzji należy je pomijać.
### Self-Check Questions
### Review Questions
### Critical Thinking Question
### Problems
Wykorzystaj te informacje, aby odpowiedzieć na kolejne cztery pytania: Maria ma tygodniowy budżet w wysokości 24 zł do wydania na rzeczy, które lubi – czasopisma i ciasta.
### References
Bureau of Labor Statistics, U.S. Department of Labor. 2015. “Median Weekly Earnings by Educational Attainment in 2014.” Dostęp: 27 marca, 2015. http://www.bls.gov/opub/ted/2015/median-weekly-earnings-by-education-gender-race-and-ethnicity-in-2014.htm.
Robbins, Lionel. An Essay on the Nature and Significance of Economic Science. London: Macmillan. 1932.
United States Department of Transportation. “Total Passengers on U.S Airlines and Foreign Airlines U.S. Flights Increased 1.3% in 2012 from 2011.” Dostęp: Październik 2013. http://www.rita.dot.gov/bts/press_releases/bts016_13 |
# Wybory w świecie rzadkości zasobów
## Krzywa możliwości produkcyjnych i wybory społeczne
Tak jak jednostki nie mogą mieć wszystkiego, czego zapragną, ale muszą dokonywać wyborów, tak społeczeństwo jako całość nie może mieć wszystkiego, czego mogłoby chcieć. W tej części rozdziału zostaną wyjaśnione ograniczenia, z jakimi boryka się społeczeństwo, przy użyciu modelu zwanego krzywą możliwości produkcyjnych lub inaczej krzywą transformacji (ang. ). Istnieje więcej podobieństw niż różnic między wyborem jednostki a wyborem społecznym. Czytając ten rozdział, skup się na podobieństwach.
Ponieważ społeczeństwo ma w danym momencie ograniczone zasoby (np. pracy, ziemi, kapitału finansowego i surowców), istnieje ściśle określona ilość towarów i usług, które może wyprodukować. Załóżmy, że społeczeństwo pożąda dwóch rzeczy: opieki zdrowotnej i edukacji. Sytuację tę pokazuje krzywa możliwości produkcyjnych na .
przedstawia „wielkość produkcji” opieki zdrowotnej na osi pionowej, a „wielkość produkcji” edukacji na osi poziomej. Gdyby społeczeństwo przeznaczyło wszystkie swoje zasoby na opiekę zdrowotną, znalazłoby się w punkcie A. Nie miałoby jednak żadnych zasobów na utrzymanie edukacji. Gdyby społeczeństwo chciało przeznaczyć wszystkie swoje środki na edukację, znaleźlibyśmy się w punkcie F. Alternatywnie, społeczeństwo mogłoby wybrać dowolną kombinację opieki zdrowotnej i edukacji na krzywej możliwości produkcyjnych. W efekcie krzywa możliwości produkcyjnych odgrywa taką samą rolę dla społeczeństwa, jak linia ograniczenia budżetowego dla Tomka. Społeczeństwo może wybrać dowolną kombinację dwóch dóbr na krzywej lub poniżej krzywej możliwości produkcyjnych. Jednak nie ma wystarczających zasobów, aby móc produkować kombinację, którą obrazuje dowolny punkt ponad tą krzywą.
Co najważniejsze, krzywa możliwości produkcyjnych wyraźnie pokazuje kompromis między dostarczaniem opieki zdrowotnej i edukacji. Załóżmy, że społeczeństwo zdecydowało się na zapewnienie (wyprodukowanie) wolumenu obu dóbr, tak jak to ilustruje punkt B, i rozważa zwiększenie poziomu usług edukacyjnych. Ponieważ krzywa możliwości produkcyjnych jest nachylona ujemnie, jedynym sposobem, w jaki społeczeństwo może zapewnić sobie więcej edukacji, jest rezygnacja z części dostępnej opieki zdrowotnej. To jest wybór, którego trzeba dokonać. Załóżmy, że społeczność rozważa przejście z punktu B do punktu C. Jaki byłby koszt alternatywny dodatkowej jednostki edukacji? Koszt alternatywny to ilość opieki zdrowotnej, z której społeczeństwo musi zrezygnować. Podobnie jak w przypadku ograniczenia budżetowego Tomka, nachylenie (ang. ) krzywej możliwości produkcyjnych pokazuje koszt alternatywny. Jeśli uważnie czytasz niniejszy podrozdział, możesz spokojnie powiedzieć: „Hej, ta krzywa możliwości produkcyjnych to nic innego jak linia ograniczenia budżetowego”. Jeśli tak uważasz, przeczytaj sekcję poniżej.
### Krzywa możliwości produkcyjnych i prawo rosnących kosztów alternatywnych
Ograniczenia budżetowe, które przedstawiliśmy wcześniej w tym rozdziale, pokazując indywidualne wybory dotyczące ilości konsumowanych dóbr, były liniami prostymi. Linie te miały stałe nachylenie, gdyż względne ceny dwóch dóbr, które determinują nachylenie linii ograniczenia budżetowego, są dla wybierającego konsumenta stałe. Jednak krzywa możliwości produkcyjnych dla społeczeństwa wybierającego między opieką zdrowotną a edukacją został wykreślona jako wypukła. Dlaczego linia ta ma inny kształt?
Aby to zrozumieć, zacznij rozważania od punktu A w lewym górnym rogu wykresu. W tym punkcie wszystkie dostępne zasoby są przeznaczane na opiekę zdrowotną i żadne nie trafiają na cele edukacyjne. Taki wybór byłby skrajny, a nawet zabawny. Na przykład dzieci codziennie odwiedzałyby lekarza, niezależnie od tego, czy byłyby chore, czy nie, ale nie chodziłyby do szkoły. Ludzie robiliby sobie niemal dowolne operacje plastyczne, ale nie mieliby żadnego wykształcenia (kto wówczas dokonywałby tych wszystkich operacji?). Teraz wyobraź sobie, że niektóre z tych zasobów zostają przekierowane z opieki zdrowotnej na edukację, tak że gospodarka znajduje się w punkcie B. Przekierowanie niektórych zasobów i przesunięcie gospodarki z punktu A do B powoduje stosunkowo niewielki spadek poziomu opieki zdrowotnej w społeczeństwie, ponieważ kilka dodatkowych (krańcowych) jednostek pieniężnych (złotych, dolarów) przeznaczanych na opiekę zdrowotną nie przynosi znaczących dodatkowych korzyści w tej dziedzinie. Jednak przeznaczenie tych pieniędzy na zorganizowanie edukacji, która jak dotychczas nie istniała, bo żadne zasoby nie były przeznaczone na zapewnienie tej usługi, może przynieść stosunkowo duże korzyści. Z tego powodu kształt krzywej możliwości produkcyjnych między punktami A i B jest dosyć płaski, co oznacza relatywnie niewielki spadek poziomu zdrowia publicznego i duży progres w poziomie edukacji.
Przeanalizujmy teraz drugi koniec krzywej możliwości produkcyjnych (prawy dolny róg wykresu). Wyobraź sobie, że społeczeństwo zaczyna od wyboru D, w którym przeznacza się prawie wszystkie zasoby na system edukacji, a bardzo niewiele na opiekę zdrowotną, i przechodzi do punktu F, w którym przeznacza się wszystkie zasoby na edukację, a na opiekę zdrowotną żadnych. Aby lepiej to sobie wyobrazić, przyjmijmy, że za przesunięciem tej gospodarki z punktu D do F kryje się przekwalifikowanie kilku ostatnich lekarzy na nauczycieli przedmiotów ścisłych w liceum, kilku ostatnich pielęgniarek na szkolne bibliotekarki i przekształcenie dosłownie kilku ostatnich izb przyjęć w przedszkola. Korzyści dla edukacji wynikające z relokacji tych kilku ostatnich zasobów są bardzo małe. Jednak utracone korzyści dla ilości opieki zdrowotnej będą dość duże, zatem nachylenie krzywej między punktami D i F jest strome i pokazuje duży spadek dostępnego wolumenu opieki zdrowotnej przy niewielkim wzroście ilości edukacji.
Lekcja, jaką można wyciągnąć z powyższego wywodu, jest raczej oczywista. Społeczeństwo bardzo rzadko (prawie nigdy) nie dokona skrajnego wyboru, oznaczającego przesunięcie wszystkich zasobów do produkcji wyłącznie edukacji (punkt F) lub opieki zdrowotnej (punkt A). Co więcej, korzyści z przeznaczenia dodatkowych środków na edukację zależą od tego, jak dużo środków jest już zaangażowanych w tę dziedzinę. Jeśli na edukację przeznacza się obecnie bardzo niewiele zasobów, to ich zwiększenie może przynieść stosunkowo duże korzyści. Z drugiej strony, jeśli na edukację przeznaczono już znaczną pulę zasobów, skierowanie na nią dodatkowych środków przyniesie relatywnie mniejsze korzyści.
Ten wzorzec jest na tyle powszechny, że ekonomiści nadali mu nazwę: prawo rosnącego kosztu alternatywnego (ang. ). Zgodnie z nim wraz ze wzrostem produkcji dobra lub usługi wzrasta również koszt alternatywny produkcji dodatkowej jednostki danego dobra. Dzieje się tak, ponieważ niektóre zasoby są lepiej przystosowane do produkcji konkretnych produktów, a w kontekście innych sprawdzają się znacznie gorzej. Gdy władze publiczne różnego szczebla zwiększają wydatki na ograniczenie przestępczości, początkowy przyrost wielkości tego specyficznego dobra, jakim jest bezpieczeństwo publiczne, jest znaczny. Jeśli po ulicach miasta chodzi tylko jeden funkcjonariusz, to zatrudnienie drugiego znacznie zwiększy bezpieczeństwo mieszkańców. Koszt alternatywny, jaki społeczność tego miasta ponosi w związku z subiektywnym wzrostem poczucia bezpieczeństwa, jest stosunkowo niewielki (wynagrodzenie i wyposażenie jednego policjanta). Z pewnością dzięki drugiemu funkcjonariuszowi spadnie też liczba przestępstw i wykroczeń, do jakich będzie dochodzić. Oznacza to, że koszt alternatywny ograniczenia przestępczości może być stosunkowo niewielki. Aby jednak osiągnąć po raz kolejny ten sam procentowy spadek liczby przestępstw i taki sam wzrost poczucia bezpieczeństwa, nie wystarczy zatrudnić następnego policjanta. Teraz zapewne potrzebny byłby co najmniej nowy dwuosobowy patrol, a może nawet koordynator na komisariacie, który przyjmowałby zgłoszenia obywateli. Tym samym koszt alternatywny ograniczania przestępczości zdecydowanie rośnie. Gdyby jakiekolwiek miasto w jakimkolwiek kraju na świecie postanowiło całkowicie wyeliminować każdy przejaw przestępczości (łącznie z łamaniem przepisów drogowych), oznaczałoby to gigantyczny koszt, a może nawet byłoby niemożliwe.
Nachylenie krzywej możliwości produkcyjnych pokazuje, że gdy przeznaczamy więcej zasobów na zapewnienie edukacji, przesuwając się od lewej do prawej wzdłuż osi poziomej, początkowy wzrost kosztu alternatywnego jest dość niewielki, ale stopniowo rośnie. Zatem nachylenie krzywej w pobliżu punktu przecięcia z osią pionową jest stosunkowo płaskie. I odwrotnie, gdy przeznaczamy więcej zasobów na opiekę zdrowotną, przesuwając się od dołu do góry na osi pionowej, początkowe spadki kosztów alternatywnych są dość duże, ale potem stopniowo maleją. Tak więc nachylenie krzywej możliwości produkcyjnych jest stosunkowo strome w pobliżu punktu przecięcia z osią poziomą. W ten sposób prawo rosnącego kosztu alternatywnego powoduje, że krzywa możliwości produkcyjnych ma wypukły kształt.
### Efektywność produkcji i alokacji
Ekonomiści nie roszczą sobie prawa do wskazywania społeczeństwu, jakiego wyboru powinno dokonać na krzywej możliwości produkcyjnych. W gospodarce rynkowej, z demokratycznym sposobem wyłaniania władz na różnych szczeblach, taki wybór będzie wiązał się z kombinacją decyzji podejmowanych przez jednostki, przedsiębiorstwa i państwo. Ekonomiści, korzystając ze swojej wiedzy, mogą jednak pokazywać, że niektóre wybory są jednoznacznie lepsze od innych. Ta obserwacja opiera się na koncepcji efektywności. W potocznym rozumieniu efektywność odnosi się do braku marnotrawstwa. Nieefektywna maszyna pracuje przy wysokich kosztach, zaś efektywna działa przy kosztach niższych, ponieważ nie marnuje energii ani materiałów. Nieefektywna organizacja nie potrafi niczego wytworzyć na czas i charakteryzuje się wysokimi i przekraczającymi założony limit kosztami działalności, podczas gdy ta efektywna realizuje określone plany, jest skoncentrowana na założonym celu i funkcjonuje w ramach budżetu.
Krzywa możliwości produkcyjnych może obrazować dwa rodzaje efektywności: efektywność produkcji i efektywność alokacji. pokazuje te koncepcje, wykorzystując krzywą transformacji przedstawiającą wybór społeczeństwa między opieką zdrowotną i edukacją.
Efektywność produkcji (ang. ) oznacza, że biorąc pod uwagę dostępne zasoby i technologię, niemożliwe jest wyprodukowanie większej ilości jednego dobra bez zmniejszenia produkcji innego (innych). Wszystkie koszyki dóbr reprezentowane przez punkty leżące na krzywej transformacji (A, B, C, D i F) na charakteryzują się efektywnością produkcji. Gdy przesuwamy się między tymi kombinacjami, albo zwiększa się ilość dostarczonej opieki zdrowotnej i spada ilość edukacji, albo odwrotnie, zwiększa się zasób edukacji i spada ilość wytworzonej opieki zdrowotnej. Jednak każda kombinacja zilustrowana punktem leżącym poniżej krzywej możliwości produkcyjnych jest nieefektywna i wiąże się z marnotrawstwem, ponieważ jej wybór oznacza, że można wyprodukować więcej jednego dobra bez zmniejszania produkcji drugiego lub zwiększyć równocześnie produkcję obu tych dóbr.
Na przykład punkt R przedstawia nieefektywną kombinację produkcji edukacji i opieki zdrowotnej, ponieważ przy wyborze koszyka C możliwe jest zwiększenie produkcji obu dóbr: ilość edukacji oznaczona na osi poziomej jest większa w punkcie C niż w punkcie R (E2 jest większe niż E1), a ilość opieki zdrowotnej oznaczona na osi pionowej jest również większa w punkcie C niż w punkcie R (H2 jest większe niż H1).
Efektywność alokacji (ang. ) oznacza, że konkretna kombinacja ilości dóbr i usług na krzywej możliwości produkcyjnych, na którą zdecydowało się społeczeństwo, reprezentuje najbardziej pożądany przez to społeczeństwo wybór. Kwestia określenia, czego w istocie społeczeństwo pragnie najbardziej, jest przedmiotem rozważań na zajęciach z politologii, socjologii, filozofii, a także ekonomii. Najbardziej podstawowa definicja efektywności alokacji oznacza, że producenci dostarczają taką ilość (liczbę) każdego produktu, jakiej żądają konsumenci. Tylko jeden z wyborów efektywnych produkcyjnie będzie spełniał definicję efektywności alokacyjnej dla całego społeczeństwa.
### Dlaczego społeczeństwo musi wybierać?
W rozdziale dowiedzieliśmy się, że każde społeczeństwo boryka się z problemem rzadkości zasobów, czyli konfliktem między ograniczonymi zasobami a potrzebami, których nie da się za ich pomocą zaspokoić. Krzywa możliwości produkcyjnych ilustruje wybory związane z tym dylematem.
Każda gospodarka może wykorzystać dwie drogi, aby zwiększyć produkcję wszystkich dóbr. Pierwszą jest odkrycie, że dotychczasowy sposób wykorzystywania zasobów był nieefektywny, zatem zmieniając go na bardziej efektywny, może wytwarzać większą ilość (liczbę) wszystkich produktów albo przynajmniej części z nich, nie obniżając jednocześnie poziomu produkcji pozostałych. W modelu możliwość ta zostanie zilustrowana przesunięciem punktu symbolizującego wybraną kombinację dóbr na krzywą możliwości produkcyjnych. Druga droga to wzrost – na przestrzeni lat – wolumenu zasobów, którymi dana gospodarka dysponuje (np. zwiększanie się dostępnej ilości pracy i kapitału). Gdy tak się dzieje, krzywa możliwości produkcyjnych będzie przesuwała się na zewnątrz układu współrzędnych i społeczeństwo będzie w stanie wyprodukować większą ilość wszystkich dóbr.
Jednak odkrycie i wdrożenie nowych, bardziej efektywnych metod produkcji wymaga czasu, podobnie zresztą jak przyrost zasobu dóbr, które wykorzystujemy do wytwarzania innych towarów. A to oznacza, że wzrost gospodarczy ma charakter stopniowy. Dlatego społeczeństwo musi nieustannie dokonywać wyborów typu „coś za coś”. Dla rządzących proces ten często wiąże się z próbą określenia, w jakich obszarach dodatkowe wydatki mogą przynieść najwięcej korzyści, a w których ich redukcja wywoła najmniej szkód. Na poziomie przedsiębiorstw mechanizm rynkowy zapewnia koordynację procesu, w ramach którego firmy starają się wytwarzać dobra i usługi w ilości, jakości i cenie, jakich pożądają potencjalni klienci. Jednak zarówno w przypadku decyzji podejmowanych na szczeblu rządowym, jak i wywołanej mechanizmem rynkowym reakcji przedsiębiorstw, w krótkim okresie wzrost produkcji jednego dobra zazwyczaj powoduje kompensujący go spadek produkcji w innym segmencie gospodarki.
### Krzywa możliwości produkcyjnych i przewaga komparatywna
Chociaż każde społeczeństwo musi wybrać, jaką ilość lub liczbę każdego dobra lub usługi chce skonsumować, nie musi samodzielnie wytwarzać każdego dobra, którego potrzebuje. Dość często ilość towaru, który dany kraj zdecyduje się wyprodukować lub też decyzja o tym, żeby w ogóle produkować dany towar, zależy od tego, jak drogie jest jego wytworzenie w porównaniu z zakupem za granicą. Jak to już wskazaliśmy wcześniej, kształt krzywej możliwości produkcyjnych danego kraju dostarcza nam informacji o wyborze dokonywanym między poświęceniem zasobów na produkcję jednego lub drugiego towaru. W szczególności jej nachylenie informuje nas o koszcie alternatywnym wytworzenia jeszcze jednej jednostki dobra reprezentowanego na osi poziomej w stosunku do drugiego dobra, przedstawionego na osi pionowej. Kraje mają zwykle różne koszty alternatywne produkcji określonego dobra, m.in. z powodu różnic klimatycznych, położenia geograficznego, posiadanych technologii lub umiejętności obywateli.
Załóżmy, że dwa kraje, Polska i Brazylia, muszą podjąć decyzję o areale dwóch upraw: trzciny cukrowej i pszenicy. Ze względu na swoje warunki klimatyczne Brazylia może osiągnąć całkiem spore plony trzciny cukrowej z hektara, ale pszenicy relatywnie niewielkie. I odwrotnie, Polska może produkować duże ilości pszenicy z każdego hektara, ale bardzo niewiele (o ile w ogóle) trzciny cukrowej. Tym samym Brazylia ma niższy koszt alternatywny produkcji trzciny cukrowej (wyrażony w utraconej produkcji pszenicy) niż Polska. I odwrotnie: Polska ma niższy koszt alternatywny produkcji pszenicy niż Brazylia. Obie konstatacje można przedstawić za pomocą krzywych możliwości produkcyjnych wykreślonych dla tych dwóch krajów na .
Krzywa możliwości produkcyjnych pszenicy i trzciny cukrowej dla Polski i Brazylii
Gdy jakiś kraj może wyprodukować dobro przy niższym koszcie alternatywnym niż inny kraj, mówimy, że ma przewagę komparatywną (ang. ) w zakresie produkcji tego dobra. Przewaga komparatywna to nie to samo co przewaga absolutna, kiedy kraj może po prostu wyprodukować więcej danego dobra. W naszym przykładzie Brazylia ma absolutną przewagę pod względem produkcji trzciny cukrowej, a Polska ma absolutną przewagę pod względem produkcji pszenicy. Można to łatwo zauważyć, analizując skrajne punkty produkcji na krzywych możliwości produkcyjnych obu krajów. Gdyby Brazylia przeznaczyła wszystkie swoje zasoby na produkcję pszenicy, produkowałaby w punkcie A. Gdyby jednak zamiast tego przeznaczyła wszystkie swoje zasoby na produkcję trzciny cukrowej, produkowałaby znacznie więcej niż Polska w punkcie B.
Nachylenie krzywej możliwości produkcyjnych informuje nas o koszcie alternatywnym wytworzenia dodatkowej jednostki pszenicy. Chociaż nachylenie nie jest stałe we wszystkich punktach na krzywej, jest całkiem oczywiste, że krzywa dla Brazylii jest znacznie bardziej stroma niż w przypadku Polski, a zatem koszt alternatywny wyprodukowania jednostki pszenicy jest ogólnie wyższy w Brazylii. Kiedy kraje angażują się w handel, specjalizują się w produkcji towarów, w których mają przewagę komparatywną, a część tej produkcji wymieniają na towary, w których przewagi komparatywnej nie mają. Dzięki wymianie handlowej producenci wytwarzają te towary, których koszt alternatywny jest najniższy, więc całkowita produkcja wzrasta, z korzyścią dla obu stron.
### Key Concepts and Summary
Krzywa możliwości produkcyjnych określa zbiór wyborów, przed jakimi staje społeczeństwo, w odniesieniu do kombinacji dóbr i usług, które może wytworzyć, biorąc pod uwagę dostępne zasoby. Krzywa przybiera zazwyczaj postać linii wypukłej, a nie prostej. Wybory zilustrowane punktami leżącymi powyżej krzywej są nieosiągalne, a te leżące poniżej niej – nieefektywne. Z biegiem czasu rozwijająca się gospodarka będzie miała tendencję do przesuwania krzywej możliwości produkcyjnych coraz dalej na zewnątrz.
Zgodnie z prawem malejących przychodów (ang. ), w miarę jak krańcowe przyrosty zasobów są przeznaczane na produkcję, krańcowy wzrost produkcji będzie coraz mniejszy. Wszystkie wybory na krzywej możliwości produkcyjnych charakteryzują się efektywnością produkcji: oznacza to, że niemożliwe jest wykorzystanie zasobów społeczeństwa do produkcji większej ilości jednego dobra bez zmniejszania produkcji drugiego. Konkretny wybór wzdłuż krzywej możliwości produkcyjnych, który odzwierciedla kombinację towarów preferowaną przez społeczeństwo, jest wyborem charakteryzującym się efektywnością alokacji. Kształt krzywej możliwości produkcyjnych może się różnić w zależności od kraju, bo różne państwa mają przewagi komparatywne w zakresie produkcji różnych towarów. Całkowita produkcja może wzrosnąć, jeśli kraje specjalizują się w produkcji towarów, w przypadku których mają przewagę komparatywną, i wymieniają część swojej produkcji na inne dobra.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
|
# Wybory w świecie rzadkości zasobów
## Konfrontacja z zastrzeżeniami do podejścia ekonomicznego
Nawet jeśli zrozumiemy czysto ekonomiczne podejście do procesu podejmowania decyzji, możemy czuć się niekomfortowo podczas jego stosowania. Źródła ewentualnego dyskomfortu zwykle dzielą się na dwie kategorie zilustrowane następującymi stwierdzeniami:
1.
ludzie nie postępują w sposób, który pasuje do ekonomicznego sposobu myślenia,
2.
nawet jeśli ludzie postępowaliby w ten sposób, to – zdaniem niektórych – powinni starać się tego unikać.
Rozważmy kolejno te argumenty.
### Pierwszy zarzut: ludzie, przedsiębiorstwa i społeczeństwo nie postępują zgodnie z zasadami opisywanymi przez ekonomistów
Ekonomiczne podejście do procesu podejmowania decyzji wydaje się wymagać więcej informacji, niż posiada większość osób, i większej ostrożności, jaką mało kto faktycznie wykazuje. W końcu czy ty lub któryś z twoich znajomych wyznaczacie ograniczenie budżetowe i szepczecie pod nosem o maksymalizacji użyteczności, zanim pójdziecie do centrum handlowego? Czy członkowie polskiego parlamentu analizują krzywą możliwości produkcyjnych przed corocznym głosowaniem nad budżetem? Ludzie i społeczeństwa działają w sposób chaotyczny, który nie przypomina zgrabnych ograniczeń budżetowych lub płynnie wyginających się krzywych możliwości produkcyjnych.
Jednak podejście ekonomiczne może być użytecznym sposobem analizy i zrozumienia kompromisów związanych z podejmowaniem decyzji. Aby docenić tę kwestię, wyobraź sobie przez chwilę, że grasz w koszykówkę, dryblujesz w prawo i rzucasz w lewo do kolegi z drużyny, który biegnie w kierunku kosza. Fizyk lub inżynier może określić prawidłową prędkość gracza i trajektorię podania, biorąc pod uwagę szybkość wszystkich obiektów znajdujących się na boisku oraz wagę i sprężystość piłki. Jednak grając w koszykówkę, nie wykonujesz żadnego z tych obliczeń. Po prostu podajesz piłkę, a jeśli jesteś dobrym graczem, zrobisz to z dużą dokładnością.
Ktoś mógłby się spierać: „Równania naukowe dotyczące gry wymagają znacznie większej wiedzy z zakresu fizyki i o wiele bardziej szczegółowych informacji na temat prędkości poruszania się i ciężaru, niż w rzeczywistości posiada koszykarz, więc musi to być nierealistyczny opis tego, jak odbywają się podania w koszykówce”. Ta reakcja byłaby błędna. Fakt, że dobry gracz dzięki wprawie i umiejętnościom może rzucać piłką dokładnie, bez wykonywania obliczeń, nie oznacza przecież, że obliczenia te są błędne.
Podobnie, z ekonomicznego punktu widzenia, ktoś, kto co tydzień robi zakupy spożywcze, ma dużą praktykę w budowaniu zestawu towarów zapewniającego mu wysoką użyteczność, nawet jeśli nie formułuje swoich decyzji w kategoriach ograniczenia budżetowego. Instytucje rządowe mogą działać niedoskonale i powoli, ale generalnie w demokratyczną formę rządów wpisana jest presja ze strony wyborców i organizacji społecznych, aby dokonywać wyborów, które są w największym stopniu preferowane przez członków społeczeństwa. Tak więc myśląc o ekonomicznych podstawach sposobu zachowania grup ludzi, przedsiębiorstw i całych społeczności, zasadne jest przeanalizowanie ich – w pierwszym kroku – za pomocą narzędzi pochodzących z arsenału ekonomistów. Temat ten zostanie rozwinięty w rozdziale o wyborach konsumenckich () w części poświęconej ekonomii behawioralnej.
### Drugi zarzut: ludzie, przedsiębiorstwa i społeczeństwo nie powinny działać zgodnie z zasadami opisywanymi przez ekonomistów
Ekonomiczny sposób opisu procesu podejmowania decyzji przedstawia ludzi jako egoistyczne indywidua. Dla niektórych krytyków tego podejścia, nawet jeśli interes własny jest właściwym opisem tego, jak ludzie faktycznie się zachowują, taki sposób postępowania jest niemoralny. Twierdzą oni, że opis rzeczywistości kładący nacisk na egoistyczne wybory może zachęcać do takiego właśnie postępowania, tymczasem ludzi należy raczej uczyć większej dbałości o innych. Na tak sformułowane zarzuty ekonomiści mają kilka odpowiedzi.
Po pierwsze, ekonomia nie jest formą wychowania moralnego. Stara się ona raczej opisać zachowanie podmiotów gospodarczych tak, jak ono w istocie wygląda. Filozofowie dokonują rozróżnienia między stwierdzeniami pozytywnymi (ang. ), które opisują świat takim, jaki on jest, a stwierdzeniami normatywnymi (ang. ), które opisują, jaki świat być powinien – zdaniem tego, kto owe poglądy formułuje. Pozytywne stwierdzenia są oparte na faktach. Mogą być prawdziwe lub fałszywe, ale dają się przetestować, przynajmniej co do zasady. Wypowiedzi normatywne są subiektywnym wyrażeniem opinii. Nie możemy ich przetestować, dowodząc ich prawdziwości lub fałszu. Są po prostu poglądami opartymi na czyichś sądach wartościujących. Na przykład ekonomista może przeanalizować projekt rozbudowy systemu metra w Warszawie. Jeśli oczekiwane korzyści przewyższają koszty, stwierdzi, że projekt jest sensowny – to przykład analizy pozytywnej. Inny ekonomista, zajmujący się polską transformacją systemową, sformułuje opinię, zgodnie z którą wysokość zasiłków wprowadzonych na początku lat 90. XX w. powinna być wyższa, ponieważ Polska była wówczas krajem wystarczająco bogatym, by mogła sobie pozwolić na bardziej hojne wsparcie osób, które utraciły pracę – to przykład analizy normatywnej.
Nawet jeśli granica między stwierdzeniami pozytywnymi a normatywnymi nie zawsze jest czytelna, analiza ekonomiczna stara się opierać na badaniu rzeczywistych ludzi tworzących rzeczywistą gospodarkę. Na szczęście jednak założenie, że jednostki kierują się wyłącznie własnym interesem, jest uproszczeniem dotyczącym ludzkiej natury. Dowodów nie musimy szukać daleko – znajdziemy je już w pracach Adama Smitha, ojca współczesnej ekonomii. Pierwsze zdanie jego książki Teoria uczuć moralnych (ang. The Theory of Moral Sentiments) bardzo wyraźnie to ujmuje: Jakkolwiek samolubny może być człowiek, ewidentnie w jego naturze są zakorzenione pewne zasady, które powodują, że interesuje go zadowolenie innych osób, i czynią owo zadowolenie ważnym dla niego, chociaż nie czerpie on z tego niczego poza przyjemnością oglądania go. Jasne jest, że jednostki są zarówno egoistyczne, jak i altruistyczne.
Po drugie, egoistyczne zachowanie i dążenie do zysku możemy nazwać inaczej, np. osobistym wyborem i wolnością. Możliwość dokonywania osobistych wyborów dotyczących zakupów, pracy i oszczędzania jest ważną wolnością osobistą. Niektórzy ludzie mogą wybierać związane z pracą pod presją wysoko płatne aktywności, aby móc dużo zarabiać i wydawać. Inni mogą przeznaczyć dużą część swoich zarobków na cele charytatywne lub ofiarować je przyjaciołom i rodzinie. Jeszcze inni mogą poświęcić się zajęciu wymagającemu czasu, energii i wiedzy, ale nieoferującemu wysokich korzyści finansowych, wykonując zawód nauczyciela w szkole podstawowej lub pracownika socjalnego. Wreszcie znajdą się i tacy, którzy wybiorą pracę pochłaniającą dużo czasu lub zapewniającą wysoki poziom dochodów, ale nadal pozostawiającą czas dla rodziny, przyjaciół i na kontemplację uroków życia. Niektórzy ludzie mogą postawić na zatrudnienie w dużej korporacji; inni mogą preferować prowadzenie własnego biznesu. Wolność ludzi do dokonywania własnych wyborów ekonomicznych ma wartość moralną, którą warto szanować.
Po trzecie, egoistyczne zachowanie może prowadzić do pozytywnych rezultatów społecznych. Na przykład kiedy ludzie ciężko pracują, aby zarobić na życie, wytwarzają dobra. Konsumenci, którzy szukają najlepszych ofert, będą zachęcać przedsiębiorstwa do oferowania towarów dóbr i usług spełniających ich potrzeby. Adam Smith, pisząc swoje najważniejsze dzieło Bogactwo narodów, nazwał tę własność niewidzialną ręką (ang. ). Opisując interakcje konsumentów i producentów w gospodarce rynkowej, Smith napisał:
Metafora niewidzialnej ręki sugeruje, że z samolubnych działań jednostki może wyłonić się dobro społeczne.
Po czwarte, nawet ludzie, którzy skupiają się na własnym interesie, podejmując wybory ekonomiczne, w innych sferach życia często postępują zupełnie inaczej. Na przykład prosząc pracodawcę o podwyżkę lub negocjując zakup samochodu, możesz skupić się wyłącznie na własnym interesie. Następnie możesz skoncentrować się na potrzebach innych ludzi, gdy zgłosisz się na ochotnika do czytania dzieciom książek w pobliskiej bibliotece, pomożesz przyjacielowi przeprowadzić się do nowego mieszkania lub przekażesz pieniądze na cele charytatywne. Interes własny jest rozsądnym punktem wyjścia do analizy wielu decyzji ekonomicznych bez konieczności sugerowania, że ludzie nigdy nie robią niczego, co nie przekłada się na ich wąsko rozumianą korzyść.
### Key Concepts and Summary
Ekonomiczny sposób myślenia zapewnia użyteczne podejście do zrozumienia ludzkich zachowań. Ekonomiści dokonują starannego rozróżnienia między twierdzeniami pozytywnymi, które opisują świat takim, jaki on jest, a twierdzeniami normatywnymi, wskazującymi, jaki świat być powinien zdaniem osób wypowiadających te twierdzenia. Nawet jeśli ekonomiczna analiza korzyści i kosztów będących następstwem różnych zdarzeń lub decyzji politycznych prowadzi pośrednio lub wprost do konkluzji normatywnych, mówiących, jaki powinien być sposób organizacji różnych aspektów ludzkiej działalności, to jest zakorzeniona w pozytywnej analizie tego, jak faktycznie zachowują się ludzie, przedsiębiorstwa i rządy, a nie jak podmioty te powinny się zachowywać.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### References
Smith, Adam. “Of Restraints upon the Importation from Foreign Countries.” In The Wealth of Nations. London: Methuen & Co., 1904, first pub 1776), I.V. 2.9.
Smith, Adam. “Of the Propriety of Action.” In The Theory of Moral Sentiments. London: A. Millar, 1759, 1. |
# Popyt i podaż
## Wprowadzenie do rozdziału
W czasie aukcji oferent płaci tysiące dolarów za suknię, którą nosiła Whitney Houston. Kolekcjoner wydaje małą fortunę na kilka rysunków wykonanych przez Johna Lennona. Ludzie zwykle reagują na podobne transakcje na dwa sposoby. Albo zdumiewa ich fakt, że ktoś jest gotów zapłacić tak wysokie kwoty za tego rodzaju dobra, albo uważają, że są to przedmioty rzadkie i pożądane, więc ceny wydają się im adekwatne.
Gdy ekonomiści rozmawiają o cenach, bardziej niż formułowanie sądów normatywnych interesuje ich próba zrozumienia tego, co w istocie determinuje ceny i dlaczego się one zmieniają. Rozważcie cenę dobra, z zakupami którego większość z nas ma do czynienia dość regularnie, a mianowicie paliwa. Dlaczego w październiku 2021 r. średnia cena litra oleju napędowego sięgała w Polsce niemal 6 zł? Dlaczego jeszcze rok wcześniej była o blisko 30% niższa? Aby wyjaśnić te ruchy cen, ekonomiści skupiają się na determinantach określających, jaką cenę nabywcy i sprzedawcy paliwa są gotowi zaakceptować.
Jak się okazuje, ceny paliw w okresie letnim są prawie zawsze wyższe od cen w styczniu tego samego roku. Prawdopodobną przyczyną stojącą za tą zależnością jest fakt, że ludzie latem znacznie więcej podróżują, a więc są gotowi zapłacić za paliwo więcej. Z tego też powodu ceny paliw na stacjach benzynowych w miejscowościach wypoczynkowych – nad morzem, w górach, na Mazurach – zazwyczaj są wyższe niż w miejscach, które nie mają walorów turystycznych. Nie wyjaśnia to jednak gwałtownego wzrostu cen benzyny, z którym mieliśmy do czynienia w ciągu 2021 r. W czasie tych 12 miesięcy w grę wchodziły także inne czynniki, takie jak zmniejszenie podaży i zwiększenie popytu na ropę naftową.
Ten rozdział wprowadza ekonomiczny model popytu i podaży – jeden z najważniejszych w całej ekonomii. Zaczniemy od określenia, w jaki sposób popyt i podaż determinują cenę i ilość będącą przedmiotem transakcji na rynkach dóbr i usług oraz w jaki sposób wahania popytu i podaży prowadzą do zmian tych cen i ilości oferowanych. |
# Popyt i podaż
## Podaż, popyt i równowaga na rynku dóbr i usług
Najpierw zastanówmy się, co ekonomiści mają na myśli, gdy mówią o popycie i podaży, a później – w jaki sposób popyt i podaż wchodzą ze sobą w interakcje na rynku.
### Popyt na dobra i usługi
Ekonomiści używają pojęcia popyt (ang. ) na określenie ilości jakiegoś dobra lub usługi, które konsumenci chcą i są w stanie nabyć po każdej możliwej cenie. Popyt wynika z ludzkich potrzeb i pragnień – jeśli czegoś nie potrzebujemy lub nie chcemy, to nie mamy potrzeby kupowania tego. O ile konsument może rozróżniać potrzeby i pragnienia, to dla ekonomistów są one dokładnie tym samym. Popyt wynika także ze zdolności do zapłaty. Jeśli nie stać cię na jakieś dobro, nie zgłaszasz na nie popytu. Zgodnie z tą regułą osoby bezdomne prawdopodobnie nie będą kupować mieszkań, a większość z nas nie zgłasza popytu na prywatne odrzutowce (jeśli w twoim przypadku jest inaczej, składamy ci serdeczne gratulacje).
To, ile nabywca płaci za jednostkę określonego dobra lub usługi, nazywamy ceną (ang. ). Ogólną liczbę jednostek tego dobra, którą konsumenci są skłonni nabyć po konkretnej cenie, nazywamy zapotrzebowaniem (ang. ).
Wzrost ceny dobra lub usługi prawie zawsze zmniejsza zapotrzebowanie na te towary. I na odwrót, spadek ceny wiąże się ze wzrostem zapotrzebowania. Jeśli cena za litr benzyny wzrasta, ludzie szukają możliwości ograniczenia konsumpcji, np. poprzez łączenie kilku spraw do załatwienia przy okazji jednej podróży, organizowanie wspólnych przejazdów lub wybieranie transportu publicznego albo spędzanie weekendów i wakacji bliżej domu. Tę odwrotną zależność między ceną a zapotrzebowaniem ekonomiści nazywają prawem popytu (ang. ). Prawo popytu zakłada, że wszystkie pozostałe zmienne, które mogą wpływać na popyt (zostaną one wskazane w kolejnym podrozdziale), pozostają stałe, gdy zmienia się cena dobra.
Można posłużyć się tu przykładem rynku paliw opisanego za pomocą tabeli lub wykresu. Tabelę pokazującą zapotrzebowanie przy każdym poziomie ceny, taką jak , ekonomiści nazywają rozkładem popytu (ang. ). W opisywanym przypadku cenę mierzymy w złotych za litr benzyny, zaś zapotrzebowanie w milionach litrów w jakimś okresie (np. dziennie lub w ciągu roku) na pewnym obszarze geograficznym (w województwie lub kraju). Krzywa popytu (ang. ) pokazuje zależność między ceną a zapotrzebowaniem, tak jak na , gdzie na osi poziomej odłożona jest ilość paliwa (w mln l), a na osi pionowej cena (w zł/l). Zauważ, że jest to wyjątek od zasady przyjętej w matematyce, gdzie zmienna niezależna (x) prezentowana jest na osi poziomej, a zmienna zależna (y) na osi pionowej. Ekonomia to jednak nie matematyka.
pokazuje więc rozkład popytu, a krzywą popytu. Są to dwa sposoby, za pomocą których można opisać tę samą relację między ceną a zapotrzebowaniem.
Krzywe popytu wyglądają nieco inaczej dla różnych dóbr. Mogą być dość strome lub stosunkowo płaskie, liniowe lub zakrzywione, tak jak na . Prawie wszystkie krzywe popytu wykazują jednak podstawowe podobieństwo, jakim jest ich ujemne nachylenie. Krzywe popytu ilustrują prawo popytu: wraz ze wzrostem ceny spada zapotrzebowanie na dane dobro, zaś wraz ze spadkiem ceny zapotrzebowanie rośnie.
Nie do końca radzisz sobie z różnymi rodzajami popytu? Przeczytaj następną .
### Podaż dóbr i usług
Gdy ekonomiści mówią o podaży (ang. ), mają na myśli ilość (liczbę) jakiegoś dobra lub usługi, jaką producent jest skłonny dostarczyć na rynek przy różnych poziomach ceny. Cena jest tym, co producent otrzymuje za sprzedaż jednej jednostki dobra (ang. ) lub usługi (ang. ). Wzrost ceny, kształtujący się na rynku w wyniku gry popytu z podażą, prawie zawsze powoduje wzrost ilości oferowanej (ang. ) tego dobra lub usługi, podczas gdy spadek ceny prowadzi do spadku ilości oferowanej. Rosnąca cena benzyny zachęca przedsiębiorstwa nastawione na zysk do podjęcia różnych działań: zintensyfikowania poszukiwań nowych złóż ropy naftowej, wydobycia większych ilości ropy z dotychczasowych pól, inwestowania w nowe rurociągi i tankowce, aby dostarczyć surowiec do rafinerii, budowy nowych zakładów przetwórstwa, zakupu nowych pojazdów dostarczających paliwo do stacji benzynowych, otwierania nowych stacji benzynowych albo wydłużania czasu pracy tych już istniejących. Ekonomiści nazywają tę dodatnią zależność między ceną a ilością oferowaną – a więc zależność, w ramach której wyższe ceny prowadzą do wzrostu ilości oferowanej, a niższe ceny powodują zmniejszenie ilości oferowanej – prawem podaży (ang. ). Prawo podaży zakłada, że wszystkie inne zmienne, które mogą wpływać na oferowaną ilość (zostaną one wskazane w kolejnym podrozdziale), pozostają stałe, gdy cena rynkowa (ang. ) się zmienia.
Nie masz pewności, czy prawidłowo rozróżniasz różne typy podaży? Spójrz na .
przedstawia prawo podaży, również wykorzystując do celów ilustracyjnych rynek benzyny. Tak jak to miało miejsce w przypadku popytu, możemy zobrazować podaż, stosując tabelę lub wykres. Rozkład podaży (ang. ) benzyny został zaprezentowany w , która wskazuje ilości oferowane przy różnych cenach. Podobnie jak w przypadku popytu cenę wyrażamy w zł/l benzyny, a ilość oferowaną w mln l. Krzywa podaży (ang. ) jest graficzną ilustracją relacji między ceną, pokazaną na osi poziomej, a ilością, zaznaczoną na osi pionowej. Rozkład podaży i krzywa podaży są dwoma różnymi sposobami zilustrowania tego samego zjawiska. Warto zauważyć, że osie pozioma i pionowa na wykresie krzywej podaży są takie same jak na wykresie krzywej popytu.
Kształt krzywej podaży różni się nieco dla różnych produktów: bardziej stroma, bardziej płaska, liniowa lub zakrzywiona. Jednak prawie wszystkie krzywe podaży charakteryzują się podstawowym podobieństwem: mają dodatnie nachylenie i ilustrują prawo podaży: jeśli cena rośnie np. z poziomu 5 zł/l do poziomu 6,20 zł/l, to ilość oferowana zwiększa się z 500 mln l do 720 mln l. I odwrotnie, jeśli cena spada, to ilość oferowana się zmniejsza.
### Równowaga – tam, gdzie popyt i podaż się spotykają
Ponieważ oba wykresy, krzywych popytu i podaży, mają odłożoną cenę na osi pionowej, a ilość na osi poziomej, krzywe podaży i popytu na to samo dobro lub usługę mogą być przedstawione na tym samym wykresie. Wzajemna interakcja popytu i podaży wyznacza cenę i ilość dobra, które będzie przedmiotem transakcji rynkowych.
przedstawia wzajemne oddziaływanie popytu i podaży na rynku benzyny. Krzywa popytu (D) jest identyczna jak na . Krzywa podaży (S) ma taką samą postać jak na . natomiast zawiera informacje o ilości oferowanej i zapotrzebowaniu przy każdym poziomie ceny.
Zapamiętaj: Jeśli dwie linie na wykresie się przecinają, zapewne coś to oznacza. Punkt, w którym krzywa podaży (S) i krzywa popytu (D) przecinają się na , tj. punkt E, nazywany jest punktem równowagi rynkowej (ang. ). Cena równowagi (ang. ) jest jedynym poziomem ceny, przy którym zamierzenia konsumentów i plany producentów są zgodne – czyli ilość produktu, którą chcą nabyć konsumenci (zapotrzebowanie), jest równa ilości produktu, jaką producenci chcą sprzedać (ilość oferowana). Ekonomiści nazywają tę wielkość ilością równowagi (ang. ). Przy żadnej innej cenie zapotrzebowanie nie jest równe ilości oferowanej, a więc rynek nie znajduje się w równowadze.
Na cena równowagi to 5,40 zł/l benzyny, zaś ilość równowagi to 600 mln l. Jeśli dysponujesz tylko tabelą z rozkładem popytu i podaży, a nie wykresem, także możesz znaleźć punkt równowagi, szukając w tabeli poziomu ceny, dla którego zapotrzebowanie i ilość oferowana są takie same.
Jeśli na rynku mamy do czynienia z ceną i ilością równowagi, nie występują żadne bodźce, które mogłyby skłonić konsumentów i producentów do zmiany ich zachowania. Kiedy jednak rynek nie jest w równowadze, zaczynają działać siły ekonomiczne, które sprawią, że zarówno cena, jak i ilość zaczną się zmieniać w taki sposób, aby rynek osiągnął ten pożądany stan.
Wyobraź sobie np., że cena za litr benzyny zostałaby podniesiona powyżej ceny równowagi, do 5,80 zł/l. Na została wykreślona przerywana linia dla tego właśnie poziomu ceny. Po wzroście ceny zapotrzebowanie spada z 600 mln l do 500 mln l. To oczywiste, że wyższa cena zmniejsza zainteresowanie paliwami wykazywane przez konsumentów, szukają oni bowiem alternatywnych sposobów zaspokajania swoich potrzeb.
Dodatkowo przy wyższej cenie ilość benzyny dostarczonej na rynek zwiększa się z 600 mln l do 680 mln l. Producenci postrzegają ją jako bardziej atrakcyjną i są gotowi sprzedać znacznie większe ilości paliwa. Teraz zastanówmy się, w jaki sposób zapotrzebowanie i ilość oferowana oddziałują na siebie przy cenie wyższej od ceny równowagi. Zapotrzebowanie spada do 500 mln l, podczas gdy ilość oferowana wzrasta do 680 mln l. Analogiczna sytuacja wystąpi przy każdym poziomie ceny wyższym od ceny równowagi – ilość zaoferowana przewyższy zapotrzebowanie. Zjawisko to nazywamy nadwyżką podaży (ang. ).
W sytuacji, w której taka nadwyżka wystąpi, niesprzedana benzyna będzie gromadzona na stacjach benzynowych, w cysternach samochodowych i kolejowych, rurociągach i rafineriach. Wytworzy to oczywiście presję na sprzedawców benzyny. Jeśli nadwyżka pozostaje niesprzedana, przedsiębiorstwa zaangażowane w produkcję i sprzedaż benzyny nie otrzymają wystarczająco dużo gotówki, aby zapłacić swoim pracownikom oraz pokryć inne wydatki. W takiej sytuacji niektórzy producenci będą chcieli obniżyć ceny, ponieważ lepiej jest sprzedać towar po niższej cenie niż nie sprzedać go w ogóle. Gdy tylko niektórzy sprzedawcy zaczną zmniejszać ceny, pozostali zrobią to samo, aby uniknąć strat. Takie zmniejszenie ceny pociągnie za sobą wzrost zapotrzebowania. Tak więc jeśli cena jest wyższa od ceny równowagi, bodźce wbudowane w mechanizmy popytu i podaży wygenerują presję, która wymusi spadek ceny i jej powrót do stanu równowagi.
Teraz załóżmy, że cena zostanie obniżona o 20 gr i wyniesie 5,20 zł/l, czyli kształtować się będzie poniżej poziomu równowagi. Również i dla tej ceny na została wykreślona linia przerywana. Po obniżce ceny zapotrzebowanie wzrośnie z 600 mln l do 700 mln l, bo kierowcy będą teraz bardziej skłonni do wykorzystywania paliwa, np. mniej chętnie organizować będą wspólny transport z domu do pracy, porzucą myśli o zamontowaniu instalacji gazowej i chętniej będą kupować większe samochody zużywające więcej paliwa. Jednocześnie nowa, niższa cena ogranicza bodźce działające na producentów, aby produkować i sprzedawać benzynę, dlatego ilość oferowana na rynku spadnie z 600 mln l do 550 mln l.
Gdy cena znajduje się poniżej poziomu równowagi, występuje nadwyżka popytu (ang. ), co oznacza, że przy tej cenie stymulowane przez nią zapotrzebowanie przewyższa ilość oferowaną, która z kolei zmniejszyła się pod wpływem spadku ceny. W tej sytuacji nabywcy benzyny będą jeździć na stacje benzynowe tylko po to, aby dowiedzieć się, że nie ma możliwości nabycia paliwa. Spółki naftowe i właściciele stacji benzynowych szybko zauważą, że mają możliwość zwiększenia swoich przychodów ze sprzedaży, oferując benzynę po wyższych cenach. W rezultacie cena będzie wzrastać aż do momentu, w którym osiągnie poziom zapewniający równowagę. Przeczytaj , w którym rozważania nad znaczeniem modelu popytu i podaży są kontynuowane.
### Key Concepts and Summary
Rozkład popytu to przedstawione w formie tabelarycznej wielkości zapotrzebowania przy różnych poziomach ceny rynkowej. Krzywa popytu to graficzna ilustracja zależności między zapotrzebowaniem a ceną rynkową. Zgodnie z prawem popytu wyższa cena zazwyczaj oznacza niższe zapotrzebowanie.
Rozkład podaży to z kolei przedstawione w formie tabeli ilości oferowane przez producentów przy różnych poziomach ceny rynkowej. Krzywa podaży ilustruje w formie graficznej zależność między ilością oferowaną a ceną. Prawo podaży mówi, że wyższa cena rynkowa zazwyczaj oznacza większe ilości oferowane na sprzedaż.
Cena równowagi i ilość równowagi są wyznaczone przez punkt przecięcia się krzywych popytu i podaży, co oznacza, że zapotrzebowanie jest w nim równe ilości oferowanej. Jeśli cena rynkowa jest niższa od ceny równowagi, zapotrzebowanie przekracza ilość oferowaną. W konsekwencji pojawi się nadwyżka popytu. Jeśli zaś cena rynkowa przekracza cenę równowagi, wówczas ilość oferowana jest większa od zapotrzebowania, co prowadzi do pojawienia się nadwyżki podaży. W obu przypadkach mechanizmy wbudowane w popyt i podaż będą wpływać na cenę rynkową w taki sposób, aby wróciła ona do stanu równowagi.
### Self-Check Question
### Review Questions
### Critical Thinking Questions
### Problems
### References
Costanza, Robert, and Lisa Wainger. “No Accounting For Nature: How Conventional Economics Distorts the Value of Things.” The Washington Post. September 2, 1990.
European Commission: Agriculture and Rural Development. 2013. "Overview of the CAP Reform: 2014-2024." Accessed April 13, 205. http://ec.europa.eu/agriculture/cap-post-2013/.
Radford, R. A. “The Economic Organisation of a P.O.W. Camp.” Economica. no. 48 (1945): 189-201. http://www.jstor.org/stable/2550133. |
# Popyt i podaż
## Pozacenowe determinanty popytu i podaży
W poprzednim podrozdziale zbadaliśmy, w jaki sposób cena wpływa na zapotrzebowanie i ilość oferowaną przez sprzedawców na rynku. Udało nam się również wyjaśnić koncepcje krzywych popytu i podaży. Jednak cena nie jest jedynym czynnikiem oddziałującym na decyzje kupujących i sprzedających. Zastanów się np., w jaki sposób popyt na produkty wykorzystywane w diecie wegetariańskiej kształtuje przekonanie podzielane przez rosnącą grupę konsumentów, iż unikanie mięsa jest korzystne dla naszego zdrowia. A jak na podaż diamentów wpłynie to, że ich producenci uruchomią kilka nowych kopalni tego cennego minerału? Jakie są zatem główne czynniki – obok ceny rynkowej – wpływające na popyt i podaż?
### Jakie czynniki wpływają na popyt?
Popyt zdefiniowaliśmy jako ilość jakiegoś dobra lub usługi, którą konsumenci chcą i są w stanie kupić przy różnych poziomach ceny rynkowej. Zgodnie z tą definicją istnieją co najmniej dwa, łatwe do zidentyfikowania, czynniki, które kształtują popyt. Jeśli chcę coś kupić, to znaczy, że dane dobro lub usługa może zaspokoić potrzebę wynikającą z moich gustów i preferencji. Jeśli jestem palaczem, nałóg skłania mnie do zakupu papierosów lub tytoniu. Moje gusta i preferencje sprawiają, że palę, to z kolei powoduje, że odczuwam nieodpartą potrzebę dostarczenia mojemu organizmowi nikotyny, a tę potrzebę mogę zaspokoić, kupując paczkę papierosów. Jeśli jednak nie palę, nie jestem zainteresowany zakupem papierosów. Jeśli czegoś nie potrzebujesz ani nie chcesz, to po prostu tego nie kupisz. Z kolei stwierdzenie „są w stanie kupić" jednoznacznie wskazuje, że dochód konsumentów jest również istotnym czynnikiem wpływającym na ich decyzje zakupowe. Profesorów zazwyczaj stać na lepsze lokum i środek transportu niż studentów, ponieważ mają większe dochody, jakkolwiek zarówno studenci, jak i wykładowcy zapewne tak samo mocno pragną mieć dach nad głową i możliwość nieskrępowanego przemieszczania się. Ceny towarów pokrewnych do dobra lub usługi, których zakup rozważamy, również mogą wpływać na popyt. Jeśli potrzebujesz nowego samochodu i poważnie rozważasz zakup fiata, cena skody lub opla nie pozostanie bez wpływu na twoją decyzję. Wreszcie struktura demograficzna populacji (liczba ludzi w konkretnym wieku) również oddziałuje na popyt. Im więcej dzieci rodzi się w danym kraju, tym większy pojawia się popyt na pieluchy i ubranka dla niemowląt. Z kolei wraz z dorastaniem tych dzieci popyt na mleko modyfikowane i środki pielęgnacji maluchów maleje, a rośnie na ubezpieczenie samochodów młodych kierowców i różnego rodzaju elektroniczne gadżety.
Wskazane powyżej czynniki mają znaczenie zarówno dla popytu zgłaszanego przez konkretną osobę, jak i dla całego rynku. W jaki sposób każdy z nich wpływa na popyt i jak zilustrować ten wpływ na wykresie? Aby odpowiedzieć na te pytania, musimy najpierw wprowadzić i objaśnić założenie ceteris paribus.
### Założenie ceteris paribus
Krzywa popytu (ang. ) lub krzywa podaży (ang. ) to relacja między dwiema i tylko dwiema zmiennymi: ilością na osi poziomej i ceną rynkową na osi pionowej. Założeniem leżącym u podstaw tworzenia krzywej popytu lub krzywej podaży jest to, że nie zmieniają się żadne istotne dla obu wielkości czynniki ekonomiczne inne niż rynkowa cena produktu. Ekonomiści nazywają to założenie , co jest łacińskim wyrażeniem oznaczającym „inne rzeczy są stałe” lub „przy innych czynnikach niezmienionych". Zależność opisana krzywą popytu lub podaży opiera się na założeniu ceteris paribus. Zmniejszenie ceny rynkowej wywołuje wzrost zapotrzebowania i spadek ilości oferowanej tylko wtedy, gdy wszystkie czynniki, które mogłyby wpłynąć na popyt i podaż, pozostają niezmienione. Jeśli dopuścimy zmianę jakiegokolwiek czynnika determinującego popyt lub podaż, wówczas prawa podaży i popytu oczywiście wciąż będą obowiązywać, ale efekt wzrostu lub spadku ceny wcale nie musi być zgodny z naszymi oczekiwaniami, jak pokazuje poniższa .
### W jaki sposób dochód wpływa na popyt?
Wykorzystajmy dochód jako przykład tego, w jaki sposób czynniki inne niż cena rynkowa wpływają na popyt. pokazuje początkowe zapotrzebowanie na używane samochody jako D0. Na przykład w punkcie Q, gdzie cena wynosi 20 tys. zł za samochód, liczba aut, na które jest zapotrzebowanie, kształtuje się na poziomie 18 tys. D0 pokazuje również, jak zmieniłoby się zapotrzebowanie na samochody przy wyższej lub niższej cenie. Gdyby cena samochodu wzrosła do 22 tys. zł, zapotrzebowanie spadłoby do 17 tys. sztuk (pokazuje to punkt R).
Pierwotne położenie krzywej popytu D0, jak każdej krzywej popytu, opiera się na założeniu ceteris paribus, zgodnie z którym żadne inne istotne dla popytu czynniki nie ulegają zmianie. Teraz wyobraź sobie, że gospodarka rozwija się, rosną dochody wielu ludzi, co sprawia, że samochody stają się bardziej przystępne cenowo (przeciętny konsument za swój roczny dochód jest w stanie kupić nie jeden, ale dwa samochody). Jak wpłynie to na popyt? Jak możemy to pokazać na wykresie?
Wracamy do . Cena samochodów nadal wynosi 20 tys. zł, ale przy wyższych dochodach zapotrzebowanie dla tego poziomu ceny rynkowej wzrosło teraz do 20 tys. aut, jak pokazuje to punkt S. W wyniku wzrostu poziomu dochodów krzywa popytu przesuwa się w prawo do nowego położenia D1, wskazując na wzrost popytu. pokazuje wyraźnie, że ten zwiększony popyt występuje przy każdym poziomie ceny rynkowej, nie tylko tym wyznaczonym przez punkty Q i S.
A teraz wyobraź sobie, że gospodarka zwalnia, wielu ludzi traci pracę lub pracuje krócej, osiągając niższe dochody. W takim przypadku spadek dochodów spowodowałby zmniejszenie zapotrzebowania na samochody przy każdym poziomie ceny rynkowej, a krzywa popytu D0 z pierwotnego położenia przesunęłaby się w lewo, do położenia D2. W naszym przykładzie cena 20 tys. zł oznacza zapotrzebowanie na poziomie 18 tys. samochodów dla pierwotnej krzywej popytu, ale tylko 14,4 tys. aut po przesunięciu popytu.
Gdy krzywa popytu przesuwa się, nie oznacza to, że zapotrzebowanie zgłaszane przez każdego indywidualnego nabywcę zmienia się w taki sam sposób. W naszym przykładzie nie każdy klient zainteresowany kupnem auta musiałby się zmierzyć ze zmianą dochodu w tym samym kierunku (wzrost albo spadek) i tym samym stopniu, co oznacza, że nie każdy zdecydowałby się na kupno samochodu przy wzroście dochodów w gospodarce lub przeciwnie, nie dokonałby zakupu, gdyby dochody w gospodarce się obniżyły. Przesunięcie krzywej popytu pokazuje zmianę dla całego rynku i jest wypadkową decyzji podejmowanych przez wszystkie osoby zainteresowane kupnem samochodu.
W poprzednim podrozdziale dowodziliśmy, że wyższy dochód powoduje większy popyt przy każdym poziomie ceny rynkowej. Dotyczy to większości dóbr i usług. Ale dla pewnych produktów – takich jak luksusowe samochody, wakacje w egzotycznych miejscach i ekskluzywna biżuteria – efekt wzrostu dochodów może być szczególnie wyraźny. Dobro, na które popyt rośnie wraz ze wzrostem dochodu i spada wraz ze spadkiem dochodu, nazywane jest dobrem normalnym (ang. ). Istnieje kilka wyjątków od tego wzorca. Wraz ze wzrostem dochodów wiele osób będzie kupować mniej artykułów spożywczych sprzedawanych pod marką własną supermarketów i dyskontów, a więcej tych opatrzonych logo producenta. Można się również spodziewać spadku popytu na samochody używane i wzrostu na nowe. Dobro, na które popyt spada wraz ze wzrostem dochodów i rośnie wraz z ich spadkiem, nazywane jest dobrem niższego rzędu (ang. ). Innymi słowy, gdy dochód rośnie, krzywa popytu na dobra niższego rzędu przesuwa się w lewo.
### Inne czynniki wpływające na przesunięcie krzywych popytu
Dochód nie jest jedynym czynnikiem, który powoduje zmiany popytu. Inne czynniki przesuwające krzywą popytu to gusta i preferencje, struktura lub wielkość populacji, ceny dóbr pokrewnych, a nawet oczekiwania co do ceny danego dobra w przyszłości. Zmiana któregokolwiek z czynników określających, jaką ilość dobra lub usługi ludzie są skłonni kupić po danej cenie, spowoduje zmianę popytu. Graficznie nowa krzywa popytu leży po prawej stronie (wzrost) lub po lewej stronie (spadek) od pierwotnego położenia. Przyjrzyjmy się teraz wspomnianym wyżej czynnikom.
Zmiana gustów i preferencji
Po rozpoczęciu procesu transformacji systemowej w Polsce w 1989 r. doszło do znaczącej zmiany w strukturze konsumpcji polskich gospodarstw domowych. Ilość kupowanego masła zaczęła spadać, zaś ilość margaryny, na którą konsumenci zgłaszali popyt, systematycznie rosła. Podobną tendencję obserwowano w relacji popytu na mięso wieprzowe i drobiowe. Udział drobiu w zakupach przeciętnego gospodarstwa domowego rósł, zaś wieprzowiny malał. Tego typu zmiany odzwierciedlają transformację gustów i preferencji konsumentów, która skutkuje zmianami ilości dóbr i usług, na które zgłaszany jest popyt przy każdej cenie. Oznacza to, że przesuwają one krzywą popytu na to dobro w prawo w przypadku kurczaka (margaryny) i w lewo w przypadku wieprzowiny (masła). Zmiana gustów i preferencji może być konsekwencją zarówno powszechnej zmiany trybu życia – co będzie np. zwiększać popyt na produkty wegetariańskie i wegańskie – jak i intensywnych kampanii marketingowych. Pomyślmy w tym kontekście o wzroście popytu na margarynę, która w okresie PRL była powszechnie uważana za produkt zdecydowanie gorszy od masła, a dzięki reklamie w telewizji stała się wręcz synonimem nowoczesnego i zdrowego stylu życia.
Zmiany struktury populacji
Odsetek osób starszych (w wieku 65 lat i więcej) w populacji Polski systematycznie rośnie. W 1990 r. było to 10,2%, w 2010 r. 13,5%, zaś w roku 2019 już 18,1%. W kolejnych latach przewidywany jest jego dalszy wzrost, do 25,2% w 2030 r. (dane opublikowane przez GUS). W społeczeństwie z relatywnie większą liczbą dzieci, takim jak Polska przed rokiem 1990, występuje większy popyt na towary i usługi kupowane przez młodych rodziców – rowery trójkołowe, pieluchy i usługi związane z opieką nad małymi dziećmi. Z kolei społeczeństwo ze stosunkowo dużą liczbą osób starszych, takie jak Polska w 2030 r., będzie zgłaszało większe zapotrzebowanie na domy opieki i aparaty słuchowe. Podobnie zmiany w wielkości populacji mogą wpłynąć na popyt na mieszkania oraz wiele innych dóbr. Każda z tych zmian zostanie pokazana jako przesunięcie krzywej popytu.
Zmiany cen dóbr pokrewnych
Zmiany cen dóbr pokrewnych, takich jak dobra substytucyjne i komplementarne, również mogą wpływać na popyt na dany produkt. Dobro substytucyjne (ang. ) to towar lub usługa, które pozwalają zaspokoić tę samą lub podobną potrzebę, można je zatem wykorzystać jako zamiennik konkretnego produktu. Ponieważ książki elektroniczne (e-booki), takie jak ten podręcznik, stają się coraz bardziej dostępne, można oczekiwać spadku popytu na książki tradycyjne, drukowane. Niższa cena substytutu zmniejsza popyt na rozpatrywany produkt. Na przykład w ostatnich latach, gdy ceny tabletów dość szybko spadały, popyt na nie wzrósł (z powodu działania prawa popytu). Ponieważ ludzie kupują tablety jako substytut laptopów, nastąpił spadek popytu na komputery przenośne, co można zilustrować jako przesunięcie krzywej popytu na laptopy w lewo. Wyższa cena za dobro substytucyjne przynosi odwrotny skutek.
Dobra komplementarne (ang. ) wzajemnie się uzupełniają, co oznacza, że często używamy ich razem, ponieważ konsumpcja jednego dobra zwiększa użyteczność (korzyści) z konsumpcji drugiego. Najczęściej przywoływane przykłady to: płatki śniadaniowe i mleko, notesy i długopisy lub ołówki, piłki golfowe i kije golfowe, benzyna i samochody oraz kawa i cukier lub mleczko. Jeśli cena kijów golfowych rośnie, to wskutek działania prawa popytu spada na nie popyt, a jednocześnie spada również popyt na dobra komplementarne, czyli piłki golfowe. Podobnie wyższa cena zimowych wakacji w górach przesunęłaby krzywą popytu na dobra komplementarne, jakimi są narty i kombinezony narciarskie, w lewo, podczas gdy niższa cena za dobra komplementarne miałaby skutek odwrotny.
Zmiany oczekiwań dotyczące przyszłych cen i innych czynników wpływających na popyt
Łatwo zrozumieć, w jaki sposób cena rynkowa dobra wpływa na zapotrzebowanie, jednak popyt na dany produkt będą również kształtować oczekiwania dotyczące przyszłego poziomu jego ceny, a także inne czynniki (gusta i preferencje, dochody itd.), które w przyszłości mogą determinować popyt na to dobro. Na przykład jeśli ludzie usłyszą, że nadchodzi powódź lub huragan, mogą wykupić ze sklepów baterie do latarek i wodę butelkowaną, słusznie zakładając, że po klęsce żywiołowej produktów tych nie wystarczy dla wszystkich. Jeśli zaś dowiedzą się, że cena dobra takiego jak kawa prawdopodobnie wzrośnie w przyszłości, mogą wybrać się do sklepu, aby zaopatrzyć się w kawę na zapas. Z kolei, jeśli konsumenci spodziewają się obniżki cen w przyszłości, wówczas wstrzymują bieżący popyt (np. na tablety), licząc, że później (np. w przyszłym roku) uda im się kupić to dobro taniej. Pokazujemy te zmiany popytu jako przesunięcia krzywej w prawo lub w lewo. Przesunięcie krzywej popytu (ang. ) następuje wówczas, gdy zmiana jakiegoś czynnika ekonomicznego (innego niż cena rynkowa) powoduje, że zapotrzebowanie zmienia się przy każdym poziomie ceny rynkowej. Poniższa dokładnie ilustruje kierunek tych zmian.
### Podsumowanie: czynniki wpływające na popyt
podsumowuje działanie sześciu czynników, które mogą przesunąć krzywe popytu. Kierunek strzałek wskazuje, czy przesunięcie krzywej popytu oznacza jego wzrost, czy też spadek. Zauważ, że zmiana ceny samego dobra lub usługi nie jest wymieniona wśród czynników, które mogą przesunąć krzywą popytu. Zmiana ceny towaru lub usługi powoduje ruch po krzywej popytu i zazwyczaj prowadzi do pewnej zmiany zapotrzebowania, ale nie wywołuje przesunięcia krzywej.
Gdy krzywa popytu się przesunie, przetnie się z krzywą podaży w innym punkcie, wskazując inną cenę i ilość równowagi. Jednak nie powinniśmy się spieszyć. Zanim omówimy to, jak zmiany popytu mogą wpływać na cenę i ilość równowagi, najpierw musimy przeanalizować możliwe czynniki wpływające na podaż i tym samym przesunięcie wykresu krzywej podaży.
### W jaki sposób koszty produkcji wpływają na podaż?
Krzywa podaży pokazuje, jak zmieni się ilość oferowana wraz ze wzrostem lub spadkiem ceny rynkowej, przy założeniu ceteris paribus, zgodnie z którym żadne inne istotne dla podaży czynniki nie ulegają zmianie. Jeśli jakakolwiek ze zmiennych, które determinują podaż i nie są ceną rynkową, zmieni się, przesunie to całą krzywą podaży. Tak samo jak przesunięcie krzywej popytu, które opisaliśmy jako zmianę zapotrzebowania przy każdej cenie, przesunięcie krzywej podaży (ang. ) oznacza zmianę ilości oferowanej przy każdym poziomie ceny rynkowej.
Myśląc o czynnikach wpływających na podaż, pamiętajmy, co stanowi podstawowy cel działalności gospodarczej – to zysk (ang. ), który jest różnicą między przychodami a kosztami. Przedsiębiorstwo wytwarza towary i usługi, używając kombinacji pracy, kapitału finansowego, materiałów i maszyn (kapitału fizycznego), czyli tego, co nazywamy nakładami (ang. ) lub czynnikami produkcji (ang. ). Jeśli koszty produkcji z punktu widzenia przedsiębiorstwa są niższe, a ceny towarów lub usług, które ono wytwarza, pozostają niezmienione, wówczas zyski rosną. Gdy zyski przedsiębiorstwa rosną, chętniej zwiększa ono produkcję, ponieważ im więcej towarów dostarczy na rynek, tym większy dochód osiągnie. Gdy koszty produkcji spadają, przedsiębiorstwo będzie chciało dostarczać większą ilość swoich produktów przy danym poziomie ceny. Zmianę tę możemy pokazać, przesuwając w prawo krzywą podaży.
Potraktujmy jako przykład firmę kurierską, która dostarcza paczki i przesyłki na terenie danego miasta. Przedsiębiorstwo to może uznać, że koszt zakupu benzyny jest jedną z najważniejszych pozycji na liście jego kosztów. Jeśli cena benzyny spadnie, wówczas przedsiębiorstwo stwierdzi, że może dostarczać przesyłki taniej niż dotąd. Ponieważ niższe koszty przekładają się na wyższe zyski, firma ta może rozszerzyć zakres usług przy danej cenie na kolejne dzielnice miasta. Dzięki niższym cenom benzyny może teraz obsłużyć większy obszar i w ten sposób zwiększyć podaż swoich usług.
I odwrotnie, jeśli przedsiębiorstwo poniesie wyższe koszty produkcji, będzie osiągać niższe zyski przy każdym poziomie ceny rynkowej swoich produktów. W rezultacie wyższy koszt produkcji zwykle powoduje, że przedsiębiorstwo oferuje do sprzedaży mniejsze ilości dóbr i usług przy każdym poziomie ceny rynkowej. W tym przypadku krzywa podaży przesuwa się w lewo.
Rozważmy teraz podaż samochodów używanych zaprezentowaną za pomocą krzywej S0 na . Punkt J wskazuje, że przy cenie równej 20 tys. zł liczba oferowanych aut wyniesie 18 tys. sztuk. Jeśli cena wzrośnie do 22 tys. zł za samochód (ceteris paribus), podaż wzrośnie do 20 tys. samochodów, co pokazuje punkt K na krzywej S0. Możemy oczywiście zaprezentować te same informacje za pomocą zestawienia takiego jak .
A teraz wyobraź sobie, że stawki najmu powierzchni biurowo-wystawienniczej, ważnego komponentu kosztów w ramach działalności sprzedawców używanych samochodów, rosną, przez co aktywność ta staje się droższa. Przy każdym poziomie ceny rynkowej sprzedawcy używanych aut zaoferują do sprzedaży ich mniejszą liczbę (część sprzedawców będzie bowiem zmuszona zawiesić działalność). Można to zilustrować, przesuwając krzywą podaży w lewo, z położenia S0 do położenia S1, co będzie oznaczało, że przy każdym poziomie ceny rynkowej liczba oferowanych samochodów maleje. W tym przykładzie przy cenie 20 tys. zł zaoferowana liczba spada z 18 tys. sztuk na początkowej krzywej podaży (S0) do 16,5 tys. na przesuniętej krzywej podaży S1. Nową wielkość wskazuje punkt L.
I odwrotnie, jeśli stawki najmu powierzchni spadają, sprzedaż samochodów staje się tańsza. Przy każdym poziomie ceny rynkowej sprzedawcy aut mogą teraz oczekiwać wyższych zysków, więc zaoferują do sprzedaży większą liczbę samochodów. Przesunięcie krzywej podaży w prawo, z S0 do S2, oznacza, że przy każdym poziomie ceny rynkowej zaoferowana liczba aut wzrosła. W naszym przykładzie przy cenie 20 tys. zł ilość oferowana wzrasta z 18 tys. na pierwotnej krzywej podaży (S0) do 19,8 tys. na krzywej podaży S2. Nową wielkość wskazuje punkt M.
### Inne czynniki wpływające na podaż
Na powyższym przykładzie można było zaobserwować, że zmiany cen nakładów w procesie produkcji wpływają na koszty produkcji, a tym samym na podaż. Przecież powierzchnia biurowo-wystawiennicza jest właśnie takim nakładem w procesie sprzedaży używanych samochodów. Na koszt wytwarzania dóbr i usług w przedsiębiorstwach oddziałuje również kilka innych elementów, takich jak zmiany pogody lub warunków naturalnych, nowe technologie produkcji i niektóre rodzaje polityki ekonomicznej państwa.
Zmiany pogody i – w dłuższym horyzoncie czasowym – klimatu wpływają na koszty produkcji wielu produktów rolnych. Na przykład w 2014 r. Nizina Mandżurska w północno-wschodnich Chinach, która odpowiada za większość produkcji pszenicy, kukurydzy i soi w tym kraju, została dotknięta najpoważniejszą od 50 lat suszą. Drastyczny spadek ilości opadów zmniejsza podaż produktów rolnych, a to oznacza, że przy danej cenie rynkowej do sprzedaży zostanie zaoferowana mniejsza ilość towarów. Z drugiej strony szczególnie korzystna pogoda przesunęłaby krzywą podaży w prawo.
Gdy przedsiębiorstwo opracuje nową technologię, która pozwala produkować taniej, krzywa podaży również przesunie się w prawo. Na przykład w latach 60. XX w. wielki projekt naukowy, zwany zieloną rewolucją, doprowadził do upowszechnienia wydajniejszych odmian podstawowych roślin, takich jak pszenica i ryż. Na początku lat 90. XX w. ponad dwie trzecie areału wykorzystywanego pod uprawę pszenicy i ryżu w krajach rozwijających się było obsiane ziarnem stworzonym dzięki zielonej rewolucji – w konsekwencji plony z hektara były dwukrotnie wyższe. Udoskonalenie technologiczne obniżające koszty produkcji przesunie krzywą podaży w prawo, dzięki czemu przy danej cenie można wyprodukować większą ilość.
Polityka państwa również może zmieniać koszty produkcji, a tym samym krzywą podaży, poprzez podatki, regulacje i dotacje. Na przykład rząd Polski nakłada podatek akcyzowy na napoje alkoholowe. Wpływy z tego tytułu wyniosły w 2020 r. ponad 13,5 mld zł. Przedsiębiorstwa traktują podatki jako koszty działalności. Wyższe koszty zmniejszają podaż z powodów, które omówiliśmy powyżej. Innym przykładem polityki, która może wpływać na wysokość kosztów wytwarzania, jest szeroki wachlarz przepisów regulujących postępowanie przedsiębiorstw w zakresie ochrony środowiska lub bezpieczeństwa i higieny pracy. Konieczność dostosowania się do przepisów zwykle zwiększa koszty pojedynczego przedsiębiorstwa.
Z drugiej strony ewentualna subwencja (ang. ) wypłacana przez władze różnego szczebla jest odwrotnością podatku. Z subwencją mamy do czynienia wtedy, kiedy państwo bezpośrednio wspiera przedsiębiorstwa, zasilając je środkami finansowymi, lub obniża wysokość podatków, gdy podejmują one działania pożądane przez władze. Z perspektywy przedsiębiorstwa podatki lub regulacje są dodatkowym kosztem produkcji, który przesuwa podaż w lewo, co prowadzi do zmniejszenia ilości oferowanej przy każdym poziomie ceny rynkowej. Z kolei dotacje rządowe obniżają koszty produkcji i zwiększają podaż oraz ilość oferowaną przy każdym poziomie ceny rynkowej, co przesuwa krzywą podaży w prawo. Następna pokazuje, jak przebiega ta zmiana.
### Podsumowanie – czynniki wpływające na podaż
Zmiany cen dóbr i usług wykorzystywanych do produkcji (nakładów), klęski żywiołowe, nowe technologie i zmiany polityki państwa znajdują odbicie w kosztach produkcji. To zaś ma wpływ na ilość produktów, jaką firmy są skłonne dostarczać przy każdym poziomie ceny rynkowej.
podsumowuje działanie czterech czynników, które mogą przesuwać krzywe podaży dóbr i usług. Zauważ, że zmiana ceny rynkowej produktu do nich nie należy. Chociaż zmiana ceny dobra lub usługi zazwyczaj wywołuje zmianę ilości oferowanej, a więc ruch po krzywej podaży tego konkretnego dobra lub usługi, nie powoduje jednak przesunięcia samej krzywej podaży.
Ponieważ krzywe popytu i podaży przedstawione są na dwuwymiarowym wykresie (z ceną rynkową i ilością odłożonymi na jego osiach), nieostrożny podróżnik po krainie ekonomii może odnieść błędne wrażenie, że nauka ta zajmuje się tylko czterema tematami: popytem, podażą, cenami i ilościami. Jednak popyt i podaż są tak naprawdę pojemnymi hasłami. Popyt obejmuje także wszystkie elementy, które wpływają na zapotrzebowanie przy każdym poziomie ceny rynkowej, a podaż obejmuje wszystko to, co wpływa na ilość zaoferowaną na rynku przy różnych poziomach ceny rynkowej. Uwzględnia także czynniki inne niż cena rynkowa, których zmiana przejawia się przesunięciami krzywych popytu lub podaży. W ten sposób dwuwymiarowy model popytu i podaży staje się potężnym narzędziem do analizy szerokiego katalogu czynników ekonomicznych.
### Key Concepts and Summary
Ekonomiści często stosują założenie ceteris paribus, czyli „przy innych czynnikach niezmienionych”. Podczas badania ekonomicznego wpływu jednego zdarzenia na interesujący ich parametr traktują wszystkie inne czynniki, które również mogą determinować ten parametr, jako stałe (niezmienne). Czynniki, które mogą przesunąć krzywą popytu na dobra i usługi, powodując wzrost lub spadek zapotrzebowania przy każdym poziomie ceny rynkowej, obejmują zmiany: gustów i preferencji, liczby potencjalnych klientów, dochodów, cen dóbr substytucyjnych i komplementarnych oraz oczekiwań dotyczących przyszłych warunków i cen determinujących popyt. Czynniki, które mogą przesunąć krzywą podaży dóbr i usług, powodując wzrost lub spadek ilości oferowanej przy każdym poziomie ceny rynkowej, obejmują zmiany: cen nakładów (czynników produkcji), warunków naturalnych, technologii oraz regulacji prawnych, jak również wysokości podatków i dotacji rządowych.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
### References
Landsburg, Steven E. The Armchair Economist: Economics and Everyday Life. New York: The Free Press. 2012. specifically Section IV: How Markets Work.
National Chicken Council. 2015. "Per Capita Consumption of Poultry and Livestock, 1965 to Estimated 2015, in Pounds." Accessed April 13, 2015. https://www.nationalchickencouncil.org/about-the-industry/statistics/per-capita-consumption-of-poultry-and-livestock-1965-to-estimated-2012-in-pounds/.
Wessel, David. “Saudi Arabia Fears $40-a-Barrel Oil, Too.” The Wall Street Journal. May 27, 2004, p. 42. https://online.wsj.com/news/articles/SB108561000087822300. |
# Popyt i podaż
## Czteroetapowy proces zmiany ceny i ilości równowagi na rynku
Rozważania zawarte w tym podrozdziale rozpocznijmy od analizy tego, jak pojedyncze zdarzenie wpływa na konkretny rynek. Może to być zmiana, która ma konsekwencje dla popytu, taka jak wzrost (lub spadek): dochodów, liczby ludności, cen dóbr substytucyjnych lub komplementarnych albo zmiana gustów i preferencji konsumentów lub oczekiwań dotyczących przyszłych cen. Może to być również zdarzenie, które wpływa na podaż, takie jak zmiana: warunków naturalnych, cen nakładów, technologii lub polityki państwa, determinująca koszty produkcji. Jak takie pojedyncze, konkretne zdarzenie gospodarcze wpływa na cenę i ilość równowagi na rynku? Spróbujemy odpowiedzieć na to pytanie, wykorzystując czteroetapowy proces.
Etap 1. Narysuj model rynku uwzględniający krzywe popytu i podaży, tak jak wygląda on przed zmianą, którą chcesz analizować. Aby poprawnie wykorzystać ten model, potrzebujesz czterech standardowych elementów: prawa popytu, które mówi nam o nachyleniu krzywej popytu; prawa podaży, które wskazuje na nachylenie krzywej podaży; listy zmiennych przesuwających popyt oraz listy zmiennych wpływających na położenie krzywej podaży. Dzięki modelowi możesz znaleźć początkowe wartości ceny i ilości zapewniające równowagę na rynku.
Etap 2. Oceń, czy zdarzenie ekonomiczne, które analizujesz, wpływa na popyt czy na podaż. Innymi słowy, czy zmiana ta znajduje się na liście czynników przesuwających krzywą popytu, czy może krzywą podaży?
Etap 3. Oceń, czy czynnik wpływający na przesunięcie odpowiedniej krzywej oznacza wzrost, czy może spadek zapotrzebowania lub ilości oferowanej na rynku przy każdym poziomie ceny rynkowej. Następnie naszkicuj nową krzywą popytu lub podaży na wykresie z prawej lub lewej strony jej pierwotnego położenia.
Etap 4. Zidentyfikuj nowy punkt równowagi rynkowej, a następnie porównaj pierwotną cenę i ilość równowagi z nowymi wartościami tych parametrów.
Rozważmy jeden przykład wiążący się wyłącznie ze zmianą podaży i jeden związany wyłącznie z przesunięciem krzywej popytu. Następnie omówimy przypadek, w którym jednocześnie zmieniać się będzie położenie i krzywej popytu, i krzywej podaży.
### Dobra pogoda na połów łososi pacyficznych
Przyjmijmy, że latem 2015 r. warunki pogodowe u wybrzeży Kalifornii sprzyjały komercyjnym połowom łososia. Ulewne deszcze oznaczały wyższy niż zwykle poziom wód w rzekach, co korzystnie wpływa na rozród tej ryby. Z kolei nieco niższe temperatury oceanu stymulowały rozwój planktonu, mikroskopijnych organizmów znajdujących się na początku oceanicznego łańcucha pokarmowego, zapewniając dostateczną ilość pożywienia dla wszystkich organizmów bytujących w tym regionie Pacyfiku. Ocean był spokojny podczas sezonu połowowego, więc komercyjne połowy mogły się odbywać przez wiele dni, dłużej niż zazwyczaj w tym okresie. Jak te warunki klimatyczne wpłynęły na ilość i cenę rynkową łososia? prezentuje cztery etapy analizy, które przedstawimy poniżej, aby pokazać, jak zmieniła się sytuacja na rynku łososi pacyficznych. także dostarcza użytecznych informacji pozwalających przeanalizować zmiany na tym rynku.
Etap 1. Narysuj wykres prezentujący rynek łososi pacyficznych wraz z krzywymi popytu i podaży dla roku 2014, czyli dla okresu ze standardową pogodą. Punkt przecięcia krzywej popytu D0 i krzywej podaży S0 wskazuje na pierwotną cenę równowagi na poziomie 3,25 dol. za funt łososia i ilość równowagi równą 250 tys. ryb. (Wskazana cena za funt to koszt, jaki ponoszą nabywcy komercyjni przy rybackim nabrzeżu. Konsumenci w sklepie spożywczym płacą cenę wyższą.) Przyjmijmy również upraszczające założenie, że każdy odławiany łosoś waży tyle samo.
Etap 2. Czy omawiane zdarzenie wpłynęło na podaż czy na popyt? Wyjątkowo dobra aura to przykład naturalnych uwarunkowań wpływających na podaż.
Etap 3. Czy podaż w wyniku omawianego zdarzenia zwiększyła się, czy też zmniejszyła? Korzystne warunki atmosferyczne to przykład zmiany, która zwiększa ilość oferowaną przy każdym poziomie ceny rynkowej. Krzywa podaży przesuwa się w związku z tym w prawo, przechodząc z pierwotnego położenia S0 do nowego położenia S1, co pokazują i .
Etap 4. Porównaj z pierwotną sytuacją nową cenę rynkową i ilość, które równoważą rynek. W nowym punkcie równowagi rynkowej E1 cena spada z 3,25 dol. do 2,50 dol., a liczba łososi, które będą przedmiotem transakcji, wzrasta z 250 tys. do 550 tys. Zauważ, że zapotrzebowanie w punkcie równowagi wzrosło, mimo iż krzywa popytu nie przesunęła się.
Podsumowując: wyjątkowo korzystne warunki pogodowe zwiększyły podaż kalifornijskiego łososia. W rezultacie liczba łososi, które zostały sprzedane na tym rynku, wzrosła, a ich cena rynkowa spadła.
### Gazety i internet
Według Pew Research Center for People and the Press coraz więcej osób, zwłaszcza młodych, wiedzę o otaczającym świecie czerpie ze źródeł internetowych. Większość dorosłych Amerykanów, podobnie zresztą jak Polaków, ma już smartfony lub tablety, a ci, którzy nimi dysponują, wykorzystują je m.in. po to, aby uzyskać dostęp do informacji. W latach 2004–2012 odsetek Amerykanów, którzy deklarowali, że szukają wiadomości w źródłach cyfrowych, wzrósł z 24% do 39%. Jak wpłynęło to na zakupy prasy papierowej oraz oglądanie i słuchanie wiadomości radiowych i telewizyjnych? Analiza tego problemu w czterech etapach została zilustrowana na i opisana w poniższym fragmencie tekstu.
Etap 1. Wykorzystaj krzywe popytu i podaży, aby pokazać, jak wyglądał ten konkretny rynek przed zmianą preferencji na korzyść cyfrowych źródeł informacji. Krzywa popytu D0 i krzywa podaży S0 pokazują pierwotne zależności między ceną rynkową a zapotrzebowaniem oraz między ceną rynkową a oferowaną na rynku ilością drukowanej prasy. W tym przypadku wykonujemy analizę bez wskazywania konkretnych wartości na obu osiach układu współrzędnych.
Etap 2. Czy omawiana zmiana wpłynęła na podaż, czy na popyt? Zmiana gustów konsumentów, czyli wybieranie cyfrowych źródeł informacji zamiast tradycyjnych (drukowanej prasy, radia i telewizji), wpłynęło na zmianę popytu na te drugie.
Etap 3. Czy wpływ na popyt był pozytywny, czy negatywny? Częstsze korzystanie z cyfrowych źródeł informacji będzie oznaczać mniejsze zapotrzebowanie na źródła tradycyjne przy każdym poziomie ceny rynkowej, powodując przesunięcie krzywej popytu na drukowaną prasę w lewo, z położenia D0 do D1.
Etap 4. Porównaj nowe cenę i ilość równowagi z pierwotnymi wielkościami. Nowa równowaga (w punkcie E1) kształtuje się przy mniejszej ilości i niższej cenie niż w pierwotnym stanie równowagi (E0).
Spadek czytelnictwa prasy drukowanej miał swój początek przed rokiem 2004. Nakład gazet w USA osiągnął swój szczyt w 1973 r. i od tego czasu spadał z powodu konkurencji ze strony wiadomości telewizyjnych i radiowych. W 1991 r. 55% Amerykanów wskazywało, że wiadomości czerpie ze źródeł drukowanych, podczas gdy w 2012 r. twierdziło tak tylko 29% ankietowanych. W ostatnich dziesięcioleciach popyt na informacje radiowe zachowywał się według tego samego schematu, a odsetek Amerykanów słuchających wiadomości przez radio spadł z 54% w roku 1991 do 33% w 2012 r. Wiadomości telewizyjne przez ostatnie 15 lat utrzymały swój udział w rynku na poziomie ponad 50%. Czy sytuacja ta może pozostać niezmieniona w długim okresie, jeśli weźmiemy pod uwagę fakt, że dwie trzecie Amerykanów poniżej 30. roku życia twierdzi, że w ogóle nie ogląda programów informacyjnych w telewizji? Nawiasem mówiąc, podobne zależności, tyle że przesunięte w czasie o ok. 5–10 lat, można zaobserwować również w Polsce.
### Powiązania i szybkość dostosowań na realnych rynkach
W realnym świecie wiele czynników wpływających na popyt i podaż może się zmieniać jednocześnie. Na przykład popyt na samochody może rosnąć z powodu powiększających się dochodów i coraz większej liczby ludności, a jednocześnie zmniejszać się z uwagi na rosnące ceny benzyny (dobra komplementarnego). Podobnie podaż samochodów może rosnąć dzięki nowym, innowacyjnym technologiom, które obniżają koszty produkcji, a jednocześnie maleć w wyniku wprowadzania regulacji zmuszających producentów do kosztownych działań służących ograniczeniu emisji zanieczyszczeń.
Co więcej, rosnące dochody i liczba ludności czy zmiany cen benzyny wpłyną na wiele rynków, nie tylko ten, na którym handluje się samochodami. Jak ekonomista może uporządkować te wszystkie powiązane ze sobą zdarzenia? Odpowiedź leży w założeniu ceteris paribus. Najpierw oceń, jak każde zdarzenie z osobna wpływa na interesujące cię rynki, przyjmując klauzulę, zgodnie z którą wszystkie inne czynniki determinujące popyt i podaż pozostają na stałym poziomie. Następnie postaraj się sformułować wnioski dotyczące łącznego efektu wszystkich przeanalizowanych zmian cząstkowych.
### Przykład łączony
Poczta Polska stoi przed trudnymi wyzwaniami. Wynagrodzenia pracowników tego przedsiębiorstwa rosną ze względu na wzrost kosztów utrzymania i podnoszenie płacy minimalnej. Jednocześnie coraz więcej osób korzysta z poczty elektronicznej i innych cyfrowych sposobów komunikowania się (SMS, Facebook, Twitter itd.). Jak zmiany te wpływają na przyszłą rentowność usług oferowanych przez Pocztę Polską? wraz z poniższymi objaśnieniami pokazuje cztery etapy analizy, która pozwoli odpowiedzieć na to pytanie.
Ponieważ wskazane wyżej zmiany oznaczają dwa różne, niezależne zakłócenia pierwotnego stanu równowagi na rynku usług pocztowych, aby ocenić, w jaki sposób punkt równowagi rynkowej przemieści się w ich konsekwencji, czteroetapową analizę trzeba przeprowadzić dwukrotnie. Najpierw należy zbadać skutki podwyższenia wynagrodzeń pracowników poczty, a później ocenić, w jaki sposób na rynek wpłynie rezygnacja wielu osób z tradycyjnych usług pocztowych i zwrot w kierunku cyfrowych form komunikacji.
(a) pokazuje przesunięcie krzywej podaży. Przeanalizujmy tę zmianę, korzystając z czteroetapowego procesu.
Etap 1. Wykorzystaj krzywe popytu i podaży, aby pokazać, jak wyglądał rynek usług pocztowych przed wystąpieniem analizowanego zjawiska. Krzywa popytu D0 i krzywa podaży S0 ilustrują pierwotne zależności.
Etap 2. Czy opisana zmiana wpłynęła na podaż, czy na popyt? Wynagrodzenie za pracę to jedna z najważniejszych składowych kosztów produkcji. Zmiana tych kosztów spowodowała zmianę podaży usług świadczonych przez Pocztę Polską.
Etap 3. Czy wpływ na podaż był pozytywny, czy negatywny? Wyższe wynagrodzenie za pracę oznacza zmniejszenie ilości usług pocztowych oferowanych przy każdym poziomie ceny rynkowej, co powoduje przesunięcie krzywej podaży usług pocztowych w lewo, z S0 do S1.
Etap 4. Porównaj nową cenę i ilość równowagi z pierwotnymi wartościami tych parametrów. Nowa równowaga (oznaczona jako punkt E1) kształtuje się przy mniejszej ilości oferowanej na rynku i wyższej cenie niż w pierwotnym punkcie równowagi (E0).
(b) z kolei obrazuje przesunięcie krzywej popytu. Powtórzmy analizę w czterech krokach.
Etap 1. Ponownie naszkicuj krzywe popytu i podaży, aby pokazać, jak wyglądał rynek usług pocztowych przed wystąpieniem analizowanego zjawiska. Krzywa popytu D0 i krzywa podaży S0 znajdują się w pierwotnych położeniach. Zauważ, że narysowany schemat jest niezależny od tego z panelu (a).
Etap 2. Czy opisana zmiana wpłynęła na podaż, czy na popyt? Zmiana upodobań konsumentów, czyli preferowanie przesyłania wiadomości za pośrednictwem kanałów elektronicznych, spowoduje zmianę popytu na usługi pocztowe.
Etap 3. Czy wpływ na popyt był pozytywny, czy może negatywny? Odejście od usług oferowanych przez Pocztę Polską na korzyść wiadomości cyfrowych spowoduje, że zapotrzebowanie na usługi pocztowe zmniejszy się przy każdym poziomie ceny rynkowej, tym samym przesuwając krzywą popytu w lewo, z położenia D0 do D1.
Etap 4. Porównaj nową cenę i ilość równowagi z pierwotnymi wartościami tych parametrów. Nowa równowaga (oznaczona jako punkt E2) kształtuje się przy mniejszej ilości oferowanej na rynku i niższej cenie niż w przypadku pierwotnej równowagi (E0).
Ostatnim etapem w naszej analizie jednoczesnych zmian popytu i podaży jest sformułowanie wniosków dotyczących tego, co stanie się z ceną i ilością równowagi pod wpływem obu zmian zachodzących w tym samym okresie. Wykorzystamy do tego oba omówione wcześniej diagramy, które nałożymy na siebie, tak jak widać to na .
Wnioski przedstawiają się następująco:
Wpływ na ilość: Konsekwencją wzrostu wynagrodzeń pracowników Poczty Polskiej są wyższe koszty produkcji usług pocztowych, a tym samym zmniejszenie ilości równowagi. Konsekwencją zmiany gustów konsumentów, polegającej na odejściu od tradycyjnych usług pocztowych, również jest zmniejszenie ilości równowagi. Ponieważ zarówno popyt, jak i podaż przesuwają się w lewo, wypadkową obu zmian jest spadek ilości usług pocztowych w równowadze (do poziomu Q3). Łatwo to dostrzec na wykresie, ponieważ ilość Q3 znajduje się z lewej strony ilości Q0.
Wpływ na cenę: Ocena tego, jak obie analizowane zmiany wpłynęły na cenę równowagi, jest bardziej skomplikowana. Skutkiem wzrostu wynagrodzeń są wyższe koszty produkcji i wzrost ceny równowagi. Z kolei konsekwencją zmiany gustów konsumentów i zmniejszenia zapotrzebowania na usługi Poczty Polskiej jest obniżenie ceny równowagi. Te dwa efekty działają w przeciwnych kierunkach. Jeśli nie znamy skali przesunięcia krzywych popytu i podaży w wyniku obu analizowanych zmian, trudno jest jednoznacznie stwierdzić, jaka będzie ostateczna cena, która ukształtuje się na rynku. To zresztą wcale nie jest takie niezwykłe. Gdy obie krzywe się przesuwają, zazwyczaj możemy ustalić ogólny wpływ na cenę i ilość, ale dość trudno jest określić skalę omawianych zmian. Oznacza to, że jeśli analizowane zmiany działają w przeciwnych kierunkach, udzielenie ostatecznej odpowiedzi na pytanie, czy cena równowagi lub ilość spadła, czy wzrosła, może być trudne, a nawet niemożliwe. W naszym przykładzie określiliśmy ogólny wpływ omawianych zmian na ilość równowagi, ale już nie na cenę równowagi. W innych przypadkach może być odwrotnie.
W czteroetapowej analizie wpływu zdarzeń gospodarczych na cenę i ilość równowagi przejście od pierwotnej do nowej równowagi wydaje się natychmiastowe. Jednak w praktyce ceny i ilości dość często pozostają na poziomie odległym od wyobrażonego punktu równowagi. W rzeczywistości jeśli jakieś zdarzenie wpływa na konkretny rynek, przesuwając krzywe popytu i podaży, cena i ilość zmieniają się co do zasady w kierunku nowego punktu równowagi, ale niekoniecznie osiągają ten poziom. Zwłaszcza że sytuacja na rynku zmienia się dość często i przesunięcie cen oraz ilości w kierunku jednego punktu równowagi może zostać zakłócone przez zdarzenia, które wywołają ruch w odwrotnym kierunku.
### Key Concepts and Summary
Korzystając z modelu rynku z krzywymi podaży i popytu do oceny wpływu jakiegoś zdarzenia na cenę i ilość równowagi, wykonaj cztery kroki: (1) naszkicuj wykres podaży i popytu, aby wiedzieć, jak wyglądał rynek przed analizowanym zdarzeniem; (2) zastanów się, czy wpływa ono na podaż, czy na popyt; (3) określ, czy wpływ ten jest ujemny, czy dodatni, i narysuj odpowiednią krzywą w nowym położeniu; (4) porównaj nową cenę i ilość równowagi z pierwotnymi wielkościami.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
### References
Pew Research Center. “Pew Research: Center for the People & the Press.” http://www.people-press.org/.
|
# Popyt i podaż
## Cena maksymalna i cena minimalna
Wszystkie dotychczasowe rozważania w niniejszym rozdziale prowadzone były przy założeniu, że rynki funkcjonują bez interwencji państwa (czasami w kontekście takiej sytuacji używa się pojemnego, lecz nieprecyzyjnego określenia „wolne rynki”). W tym podrozdziale przyjrzymy się zarówno antycypowanym, jak i rzeczywistym konsekwencjom podejmowanych przez państwo interwencji rynkowych, których celem jest zapobieżenie „zbyt wysokiemu” lub „zbyt niskiemu” poziomowi cen dóbr i usług.
Ekonomiści uważają, że istnieje relatywnie niewielka liczba podstawowych reguł, które objaśniają sposób reakcji podmiotów gospodarczych w konkretnych sytuacjach. Omówiliśmy już dwie takie reguły, czyli prawo popytu i podaży.
Państwo może przyjmować formalne regulacje wpływające w różny sposób na rynki, ale żadne przepisy nie mogą zanegować tych ekonomicznych reguł o najbardziej podstawowym charakterze. Wręcz przeciwnie, zazwyczaj owe reguły ujawniają się w tak nieoczekiwany sposób, iż może to zniweczyć intencje państwowego regulatora. To jeden z podstawowych wniosków wypływających z niniejszego podrozdziału.
Ceny i ilości równoważące popyt i podaż na niektórych rynkach, szczególnie tych, na których handluje się produktami uważanymi za niezbędne, wzbudzają wiele kontrowersji. Czasami kontrowersje te są na tyle duże, że przekładają się na presję wywieraną przez opinię publiczną na polityków, którzy – aby utrzymać poparcie wyborców – mogą uchwalić przepisy zapobiegające „nadmiernemu” wzrostowi ceny określonego dobra lub przeciwnie, jej „zbyt gwałtownemu” spadkowi.
Model wykorzystujący popyt i podaż pomaga zrozumieć, jak ludzie i przedsiębiorstwa zareagują na bodźce, które pojawią się wraz z wprowadzeniem przepisów mających służyć kontroli cen. Zwłaszcza że niektóre z tych reakcji mogą być całkowicie sprzeczne z intencją publicznego regulatora. Co szczególnie istotne, inne niż bezpośrednia kontrola cen narzędzia wpływające na równowagę rynkową mogą przynieść osiągnięcie pożądanych przez państwo celów bez negatywnych konsekwencji w postaci niechcianych kosztów i wyborów typu „coś za coś” (ang. ).
### Cena maksymalna
Prawa uchwalane przez państwo w celu ograniczenia swobody kształtowania cen rynkowych przez mechanizmy popytu i podaży nazywane są kontrolą cen (ang. ). Kontrola te może przyjąć postać ceny maksymalnej (ang. ) lub ceny minimalnej (ang. ). Cena maksymalna uniemożliwia wzrost cen rynkowych powyżej określonego poziomu („pułapu”), podczas gdy cena minimalna uniemożliwia spadek cen poniżej wyznaczonego poziomu („limitu”). Teraz, wykorzystując model rynku z popytem i podażą, omówimy, jaki wpływ na rynek ma ustanowienie cen maksymalnych. Następnie przejdziemy do analizy konsekwencji wprowadzenia cen minimalnych.
Cena maksymalna wyznacza najwyższy poziom cen, który zgodnie ze stosownymi regulacjami państwowymi może być wykorzystany w legalnych transakcjach rynkowych. Państwo narzuca ceny maksymalne, aby koszt zakupu niektórych niezbędnych towarów lub usług był przystępny dla przeciętnego konsumenta. Na przykład w 2005 r. podczas huraganu Katrina cena wody butelkowanej, a więc artykułu absolutnie niezbędnego do przeżycia na terenach, które dotknęła ta klęska żywiołowa, wzrosła w Luizjanie powyżej 5 dol. za galon (ok. 3,8 l). W rezultacie wiele osób wzywało do kontroli cen tego artykułu, gdyż uznało, że są zbyt wysokie, wziąwszy pod uwagę siłę nabywczą mieszkańców Luizjany i to, jak potrzebny był to produkt. W tym konkretnym przypadku nie doszło do narzucenia ceny maksymalnej, ale istnieją inne przykłady, w których takie rozwiązanie zostało wprowadzone.
Na wielu rynkach dóbr i usług liczba potencjalnych nabywców znacznie przewyższa liczbę potencjalnych dostawców. Konsumenci, którzy są również wyborcami, potrafią niekiedy na tyle skutecznie się zjednoczyć, że wywierają presję na polityków i wymuszają ograniczenie tempa wzrostu cen. W niektórych niemieckich miastach, takich jak Berlin, najemcy naciskali (skutecznie!) na rządzących, aby ci uchwalili przepisy dotyczące kontroli czynszów. Taki mechanizm zazwyczaj działa w ten sposób, że właściciele każdego roku mogą podnieść czynsze tylko o pewien maksymalny współczynnik. Podobne rozwiązania funkcjonują również w USA, m.in. w Nowym Jorku, Waszyngtonie czy San Francisco.
Kontrola czynszów za pomocą mechanizmu ceny maksymalnej pojawia się w centrum debaty publicznej zawsze wtedy, gdy opłaty za wynajęcie lokum zaczynają gwałtownie rosnąć. Każdy człowiek potrzebuje miejsca do życia, na które będzie mógł sobie pozwolić. Może się to stać niemożliwe, gdy np. zmiana gustów sprawi, że jakaś dzielnica lub całe miasto stanie się bardziej popularnym miejscem do zamieszkania. Również wtedy, gdy przedsiębiorstwa funkcjonujące w określonej lokalizacji zwiększą skalę swojej działalności, przyciągając nowych pracowników. Przywołane zdarzenia powodują zazwyczaj wzrost popytu na mieszkania czynszowe, tak jak to widać na . Początkowy stan równowagi (E0) leży na przecięciu krzywej podaży S0 i krzywej popytu D0, co odpowiada cenie równowagi 500 dol. i liczbie 15 tys. mieszkań na wynajem (dla uproszczenia sytuacji przyjmijmy, że wszystkie mieszkania są takie same i wynajmujący żądają za nie tej samej kwoty czynszu). Konsekwencją wzrostu dochodów lub zmiany gustów jest przesunięcie na wykresie krzywej popytu na mieszkania czynszowe w prawo, zgodnie z danymi zawartymi w , z położenia D0 do D1. Na tym rynku, przy nowej równowadze w punkcie E1, cena wynajmowanego mieszkania wzrosłaby do 600 dol., a liczba wynajętych mieszkań powiększyłaby się do 17 tys.
Załóżmy, że władze miejskie uchwalają prawo, na mocy którego czynsz za typowe mieszkanie nie może przekroczyć kwoty 500 dol., czyli nie może być wyższy niż pierwotna cena równowagi na tym rynku. Na pozioma linia przebiegająca przez wartość 500 dol. pokazuje tę mającą umocowanie prawne cenę maksymalną. Jednak wprowadzenie ceny maksymalnej nie unieważnia istnienia czynników, które spowodowały przesunięcie krzywej popytu w prawo. Przy administracyjnie ustalonym poziomie ceny, liczba mieszkań zaoferowanych na rynku pozostaje bez zmian i dalej wynosi 15 tys., ale zapotrzebowanie wzrosło i teraz kształtuje się na poziomie 19 tys. mieszkań. Innymi słowy, przy tej cenie zapotrzebowanie przewyższa ilość oferowaną, więc brakuje mieszkań na wynajem. Jak na ironię, ceny maksymalne miały pomóc najemcom, tymczasem po ich wprowadzeniu liczba wynajmowanych mieszkań obniża się w stosunku do hipotetycznej sytuacji, w której na rynku nie byłoby żadnego mechanizmu kontroli cen (gdyby czynsz kształtował się wyłącznie pod wpływem czynników wynikających z prawa popytu i podaży, to jego wysokość wzrosłaby do 600 dol. za mieszkanie, ale najemcy mieliby do dyspozycji aż 17 tys. lokali).
Powyższa analiza wskazuje, że wprowadzenie cen maksymalnych nie musi oznaczać poprawy sytuacji dla wszystkich najemców i ogranicza dochody właścicieli. Może się przecież zdarzyć i tak, że niektórzy najemcy (lub potencjalni najemcy) stracą mieszkania, ponieważ właściciele zamiast zaoferować je indywidualnym klientom, przekształcą je w biura lub zaoferują podmiotom instytucjonalnym. Istnieje również możliwość, że nawet jeśli mieszkanie pozostanie na rynku wynajmu, właściciele wydadzą mniej na jego utrzymanie, w tym ogrzewanie, chłodzenie, ciepłą wodę i oświetlenie. Pierwsza zasada ekonomii mówi, że nie dostajesz niczego za darmo – wszystko ma koszt alternatywny. Tak więc jeśli najemcy uzyskują dostęp do „tańszych” – niż wynikałoby to z sytuacji zdeterminowanej czynnikami rynkowymi – mieszkań, zazwyczaj otrzymają również towar o niższej jakości. Z drugiej strony jednak wprowadzenie ceny maksymalnej pozwoli wynająć aż 15 tys. mieszkań po cenie 500 dol., co oznacza, że właśnie tyle gospodarstw domowych uzyska dach nad głową, ponosząc koszty niższe niż w sytuacji, w której ten mechanizm nie byłby wprowadzony. Czy zatem zawsze należy go stosować? Oczywiście, że nie. Ceny maksymalne zazwyczaj są korzystne dla pewnej grupy klientów (tych, którzy jednak wynajmą mieszkanie i zapłacą czynsz równy 500 dol.) i niekorzystne dla innej grupy (to ci, którzy byliby gotowi zapłacić czynsz równy 600 dol. i legalnie wynająć mieszkanie, ale nie mogą tego uczynić). Polityka państwa niezwykle rzadko prowadzi jednak do sytuacji, w której na konkretnych rozwiązaniach korzystają wszyscy. Zazwyczaj są zarówno ich beneficjenci, jak i ci, którzy ponoszą koszty. W żadnym przypadku nie oznacza to jednak, że instrumentów, które wiążą się z kosztami dla określonej grupy społecznej (takich jak cena maksymalna!) nigdy nie należy wprowadzać.
Ceny maksymalne ustanawiane są w celu utrzymania niskich cen rynkowych, dzięki czemu wszyscy zainteresowani danym produktem mogą go kupić taniej w porównaniu z sytuacją, w której takich ograniczeń by nie było. Jednak gdy cena rynkowa nie może wzrosnąć do poziomu równowagi, zapotrzebowanie przewyższa ilość oferowaną, a zatem pojawia się nadwyżka popytu. Korzystają na tym ci, którym uda się kupić produkt po cenie określonej przez maksymalny pułap, ale ucierpią sprzedawcy produktu oraz ci, którzy nie są w stanie w ogóle go nabyć. Również jakość produktu, na który nałożona jest cena maksymalna, może ulec pogorszeniu.
### Cena minimalna
Cena minimalna to najniższa cena, za jaką można legalnie nabyć jakieś dobro lub usługę. Być może najbardziej znanym przykładem ceny minimalnej jest płaca minimalna, której wysokość ma odzwierciedlać przekonanie, zgodnie z którym osoba pracująca w pełnym wymiarze godzin (w Polsce jest to 40 godzin tygodniowo) powinna dzięki swoim zarobkom utrzymać pewien minimalny standard życia. W 2021 r. minimalne wynagrodzenie w Polsce wynosiło 2800 zł brutto, a najniższa stawka godzinowa przyjmowała wartość 18,3 zł brutto. Jak łatwo zauważyć, płaca minimalna w Polsce znacznie przekracza wysokość dochodu, który wyznacza tzw. ubóstwo skrajne, wyliczane w oparciu o minimum egzystencji. Minimum egzystencji z kolei oznacza bardzo niski poziom zaspokojenia potrzeb. Konsumpcja poniżej tego poziomu utrudnia przeżycie i stanowi zagrożenie dla psychofizycznego rozwoju człowieka. Za minimum egzystencji uznawany był w 2020 r. dochód na poziomie 640 zł na osobę samotną i 1727 zł na rodzinę czteroosobową (dwoje rodziców z dwojgiem dzieci do lat 14). Wysokość płacy minimalnej jest sukcesywnie podnoszona w ostatnich latach, a jej wysokość w 2022 r. w Polsce wzrosła o ponad 200 zł, do poziomu 3010 zł brutto (minimalna stawka za godzinę pracy wyniosła 19,7 zł).
Ceny minimalne są czasami nazywane „wsparciem cenowym”, ponieważ stanowią zabezpieczenie przed „nadmiernym” (przynajmniej zdaniem publicznego regulatora) spadkiem cen rynkowych. W wielu krajach funkcjonują regulacje mające na celu utrzymanie cen produktów rolnych powyżej pewnego minimalnego poziomu. Ceny produktów rolnych, a co za tym idzie również dochody gospodarstw domowych zajmujących się produkcją żywności, ulegają niekiedy znacznym wahaniom. Nawet jeśli przeciętnie dochody tych gospodarstw są na poziomie umożliwiającym pewien satysfakcjonujący poziom egzystencji, to w niektórych latach mogą być dość niskie. Celem, który przyświeca wprowadzeniu cen minimalnych, jest zapobieganie tym krótkookresowym wahaniom i stabilizowanie dochodów rolników.
Najczęstszym sposobem wspierania cen są zakupy dokonywane przez rząd na rynku określonego produktu (zakupy interwencyjne). Rząd dokonując takich zakupów, zwiększa popyt, co pozwala utrzymać ceny wyższe niż w sytuacji, w której o ich poziomie decydują wyłącznie czynniki rynkowe. Zgodnie z uchwaloną w 2013 r. reformą wspólnej polityki rolnej Unia Europejska (UE) wydawała ok. 60 mld euro rocznie, czyli ok. 38% swojego budżetu, na wsparcie cenowe dla rolników europejskich w latach 2014–2020.
pokazuje efekty działania programu finansowanego ze środków publicznych, który zapewnia utrzymanie cen powyżej poziomu równowagi na rynku pszenicy w Europie. Przy braku interwencji państwa cena ukształtowałaby się na poziomie zapewniającym równowagę popytu i podaży, tj. P0, co równocześnie zdeterminowałoby ilość równowagi na poziomie Q0. Punkt równowagi rynkowej oznaczony jest jako E0. Jednak polityka ukierunkowana na utrzymywanie wysokich cen na produkty rolne sprawia, że wprowadzona zostaje cena minimalna wyższa od ceny równowagi, tj. cena Pf, której poziom wyznacza linia na wykresie. W rezultacie ilość oferowana (Qs) jest większa od zapotrzebowania (Qd). Gdy ilość oferowana przekracza zapotrzebowanie, pojawia się nadwyżka podaży (ang. ).
Ekonomiści szacują, że w krajach o najwyższych dochodach na świecie, w tym w Stanach Zjednoczonych, UE i Japonii, wydaje się ok. 1 mld dol. dziennie na wspieranie rodzimych rolników. Jeśli rząd wprowadza cenę minimalną, musi wykupić nadwyżkę podaży (lub zapłacić prywatnym podmiotom za jej wykupienie). Skorzystają na tym rolnicy, których dochody wzrosną, ale zapłacą za to podatnicy, którzy poniosą koszty tej polityki, oraz konsumenci żywności (bo ceny artykułów rolnych będą wyższe). Ekonomiści zajmujący się tym sektorem przedstawili liczne propozycje zmniejszenia subsydiów na rynkach żywności, jednak w wielu krajach poparcie polityczne dla dopłat dla rolników pozostaje wciąż silne. Wynika to zapewne z faktu, że większość opinii publicznej postrzega ceny minimalne i inne subsydia jako wspieranie tradycyjnego wiejskiego stylu życia, lub też z działań silnego lobby rolników i przedsiębiorców związanych z przemysłem rolnym.
### Key Concepts and Summary
Cena maksymalna zapobiega wzrostowi ceny powyżej pewnego poziomu określonego przez regulatora. Gdy cena maksymalna zostanie ustalona poniżej ceny równowagi, zapotrzebowanie przekroczy ilość oferowaną, co spowoduje powstanie nadwyżki popytu. Ceny minimalne z kolei zapobiegają spadkowi ceny poniżej określonego przez regulatora poziomu. Gdy cena minimalna zostanie ustalona powyżej ceny równowagi, ilość oferowana przekroczy zapotrzebowanie i powstanie nadwyżka podaży. Ceny minimalne i maksymalne często prowadzą do niezamierzonych przez wprowadzający je podmiot konsekwencji.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
|
# Popyt i podaż
## Popyt, podaż i efektywność
Model popytu i podaży (ang. ), który został przedstawiony w tym rozdziale, może zostać wykorzystany do objaśnienia pojęcia efektywności ekonomicznej. Jednym ze sposobów, w jaki ekonomiści definiują efektywność (ang. ), jest wskazanie, że efektywną jest sytuacja, w której nie można poprawić położenia ani jednego podmiotu bez pogorszenia sytuacji innego. I odwrotnie, sytuacja jest nieefektywna, jeśli możliwe jest poprawienie sytuacji choćby jednej osoby bez obciążania kosztami kogokolwiek innego.
Jeśli popyt i podaż znajdują się w równowadze, sytuacja również jest efektywna: gospodarka (społeczeństwo) wykorzystuje w maksymalnym stopniu swoje ograniczone zasoby, a wszystkie możliwe korzyści z handlu zostają osiągnięte. Innymi słowy, przedmiotem transakcji jest optymalna ilość każdego dobra i usługi, którymi handluje się na rynku.
### Nadwyżka konsumenta, nadwyżka producenta, nadwyżka społeczna
Pomyśl o rynku tabletów w pewnym mieście wojewódzkim, który został zilustrowany na . Cena równowagi to 800 zł, a ilość równowagi to 28 tys. Aby zorientować się, jakie są korzyści dla konsumentów, spójrz na fragment krzywej popytu, z lewej strony powyżej punktu równowagi. Ta część krzywej popytu wskazuje, że przynajmniej część nabywców byłaby skłonna zapłacić więcej niż 800 zł za tablet.
Na przykład punkt J wskazuje, że gdyby cena wynosiła 900 zł, przedsiębiorstwa sprzedałyby 20 tys. tabletów. Konsumenci, którzy byliby gotowi zapłacić 900 zł za tablet, bo na taką właśnie kwotę oceniają użyteczność tego sprzętu, płacą cenę równowagi wynoszącą 800 zł. Skorzystali, bo zapłacili mniej, niż skłonni byliby uiścić. Pamiętaj, krzywa popytu pokazuje gotowość konsumentów do płacenia za różne ilości dobra. Kwota, którą ludzie byliby skłonni zapłacić, pomniejszona o kwotę, którą faktycznie zapłacili, nazywana jest nadwyżką konsumenta (ang. ). Nadwyżka konsumenta to obszar oznaczony na wykresie jako F, to znaczy obszar powyżej ceny rynkowej i poniżej krzywej popytu.
Krzywa podaży pokazuje liczbę tabletów, jaką przedsiębiorstwa są skłonne zaoferować na rynku przy każdym poziomie ceny. Na przykład punkt K na reprezentuje 14 tys. tabletów, które przedsiębiorstwa byłyby w stanie dostarczyć na rynek po cenie 450 zł. Ci producenci, którzy byliby gotowi sprzedać tablety po 450 zł, ale otrzymują za nie cenę równowagi równą 800 zł, uzyskują dodatkowe korzyści mocno przewyższające to, co spodziewali się otrzymać, dostarczając dobro na rynek. Dodatkowa korzyść, jaką producenci uzyskują w związku ze sprzedażą dobra lub usługi, mierzona nadwyżką ceny, którą producent faktycznie otrzymał nad tą, którą byłby w stanie zaakceptować, nazywana jest nadwyżką producenta (ang. ). Na nadwyżka producenta to obszar oznaczony jako G – czyli obszar między poziomem ceny rynkowej a odcinkiem krzywej podaży poniżej punktu równowagi rynkowej (E).
Suma nadwyżki konsumenta i nadwyżki producenta to nadwyżka społeczna (ang. ), zwana także nadwyżką ekonomiczną (ang. ) lub nadwyżką całkowitą (ang. ). Na nadwyżka społeczna to obszar będący sumą obszarów oznaczonych jako F i G. Nadwyżka społeczna dla ceny i ilości równoważących rynek jest większa, niż byłaby przy jakimkolwiek innym poziomie tych dwóch parametrów. Oznacza to, że równowaga rynkowa może być określona jako sytuacja efektywna ekonomicznie. Ponadto przy efektywnym poziomie produkcji (równoważącym na rynku popyt i podaż) niemożliwe jest uzyskanie większej nadwyżki konsumenta bez zmniejszenia nadwyżki producenta, a także niemożliwe jest osiągnięcie większej nadwyżki producenta bez zmniejszenia nadwyżki konsumenta.
### Ceny minimalne i maksymalne jako rozwiązania nieefektywne ekonomicznie
Narzucenie ceny minimalnej lub maksymalnej uniemożliwi ustalenie na rynku ceny rynkowej i ilości, które zrównoważą popyt i podaż. Automatycznie oznaczać to będzie ukształtowanie się sytuacji nieefektywnej ekonomicznie. Co więcej, poza tym, że ceny minimalne i maksymalne oznaczają pojawienie się nieefektywnego rozwiązania (bo nadwyżka społeczna jest mniejsza, niż mogłaby być), to dodatkowo instrumenty te przenoszą część nadwyżki konsumenta na producentów lub część nadwyżki producenta na konsumentów.
Wyobraź sobie, że kilka amerykańskich przedsiębiorstw pracuje nad nowym, skutecznym lekarstwem na ból pleców. Niestety, jak to bywa z nowymi medykamentami, zazwyczaj są one dość drogie. Jeśli rynek, na którym nowy środek będzie sprzedawany i kupowany, zostanie wyłączony spod ingerencji państwa, to cena równowagi wyniesie 600 dol. za miesięczną kurację, a leku będzie używać 20 tys. osób, tak jak zilustrowano to na panelu (a) . Pierwotny poziom nadwyżki konsumenta to obszar T + U, a nadwyżka producenta to obszar V + W + X. Jednak, biorąc pod uwagę naciski lobby pacjentów zainteresowanych nowym, obiecującym specyfikiem, rząd decyduje się na narzucenie ceny maksymalnej w wysokości 400 dol. za miesięczną kurację, aby uczynić lek bardziej przystępnym cenowo. Przy takiej cenie maksymalnej przedsiębiorstwa zaoferują na rynku ilość, która wystarcza tylko dla 15 tys. pacjentów.
W rezultacie zachodzą dwie zmiany. Po pierwsze, pojawia się nieefektywność i zmniejsza się nadwyżka społeczna. Utrata nadwyżki społecznej, która następuje, gdy gospodarka produkuje nieefektywną ekonomicznie ilość dobra lub usługi, nazywana jest zbędną stratą społeczną (ang. ). Używając obrazowej analogii, to trochę tak, jak wyrzucanie przez okno pieniędzy, których nikt nie zdoła złapać i wykorzystać. Na (a) strata społeczna to obszar U + W. Oznacza to, że po wprowadzeniu ceny maksymalnej obszar reprezentujący nadwyżkę całkowitą zmniejszył się z poziomu T + U + V + W + X do poziomu T + V + X. W przypadku straty społecznej może się zdarzyć, że choć nadwyżka społeczna będzie mniejsza, to rozpatrywane oddzielnie nadwyżka konsumenta lub producenta będą wyższe. W tym przypadku jest to skutkiem wprowadzenia mechanizmu kontroli cen (ang. ), który powoduje zablokowanie możliwości zawarcia legalnej transakcji producentom i konsumentom.
Drugą zmianą zachodzącą w efekcie wprowadzenia ceny maksymalnej (ang. ) jest właśnie transfer części nadwyżki producenta na korzyść konsumentów. Po nałożeniu ceny maksymalnej nowa nadwyżka konsumenta wynosi T + V, natomiast nowa nadwyżka producenta to jedynie obszar X. Innymi słowy, cena maksymalna przenosi obszar nadwyżki (V) z producentów na konsumentów. Zauważ, że korzyść konsumentów jest mniejsza niż strata producentów, co jest tylko kolejnym sposobem zaprezentowania straty społecznej wynikającej ze zmniejszenia efektywności.
(b) pokazuje działanie ceny minimalnej na przykładzie kin w pewnym mieście. Pierwotna cena równowagi wynosi 8 dol. za bilet, a zapotrzebowanie kształtuje się na poziomie 1800 biletów. Pierwotna nadwyżka konsumenta to G + H + J, a nadwyżka producenta I + K. Władze miasta obawiają się, że kina zbankrutują, co ograniczy ofertę rozrywki dostępnej dla obywateli i w dłuższym horyzoncie czasowym wywoła ich niezadowolenie, które zwróci się przeciw włodarzom. Postanawiają więc narzucić cenę minimalną na poziomie 12 dol. za bilet. W efekcie zapotrzebowanie na bilety do kin spada do poziomu 1400 biletów. Nowa nadwyżka konsumenta to G, a nowa nadwyżka producenta H + I. W efekcie cena minimalna powoduje przeniesienie obszaru H z nadwyżki konsumenta do nadwyżki producenta, ale jednocześnie prowadzi do zmniejszenia nadwyżki całkowitej o obszar J + K.
Ta analiza pokazuje, że cena maksymalna, podobnie jak ustawa ustanawiająca kontrolę czynszów, przeniesie część nadwyżki producenta na konsumentów – co pomaga wyjaśnić, dlaczego konsumenci chętnie popierają takie regulacje. I odwrotnie, cena minimalna, taka jak gwarancja, że rolnicy otrzymają określoną cenę za swoje uprawy, przeniesie część nadwyżki konsumenta na producentów, co wyjaśnia, dlaczego sprzedawcy na tym rynku tak gwałtownie się jej domagają. Jednak zarówno ceny minimalne, jak i maksymalne blokują legalną możliwość zawarcia transakcji, które inaczej doszłyby do skutku, i powodują tym samym powstanie zbędnej straty społecznej. Usunięcie tych barier i przywrócenie swobody kształtowania się cen rynkowych wyznaczających ilość równowagi zwiększy nadwyżkę społeczną wypracowywaną przez gospodarkę.
### Popyt i podaż jako mechanizm regulacji społecznych
Model popytu i podaży pozwala nam lepiej zrozumieć, że cena rynkowa nie jest zdeterminowana wyłącznie przez popyt albo tylko przez podaż, ale zostaje ukształtowana przez interakcję, w jaką wchodzą te dwa parametry. W 1890 r. słynny ekonomista Alfred Marshall napisał, że pytanie o to, czy cenę determinuje wyłącznie podaż, czy wyłącznie popyt, nie ma sensu. Byłoby bowiem równie sensowne, jak zastanawianie się: „czy to górne, czy dolne ostrze nożyczek przecina kawałek papieru”. Odpowiedź jest taka, że w proces cięcia (kształtowania cen) zawsze zaangażowane są oba „ostrza” – popytu i podaży.
Dostosowania ceny i ilości równowagi na konkretnych rynkach w gospodarce rynkowej (kapitalistycznej) najczęściej rozgrywają się bez nacisków lub nadzoru ze strony państwa. Jeśli zbiory kawy w Brazylii są zmniejszone z powodu niespodziewanej w tym kraju fali mrozów, to krzywa podaży kawy przesuwa się w lewo i cena kawy rośnie. Niektórzy ludzie – nazwijmy ich „kawoszami” – nadal piją kawę i płacą wyższą cenę za każdą filiżankę. Inni zmieniają przyzwyczajenia i zaczynają pić więcej herbaty lub innych napojów bezalkoholowych. Żaden publiczny organ nie jest zaangażowany w ustalenie „optymalnej” ceny kawy ani podejmowanie decyzji, które przedsiębiorstwa będą mogły nabyć kawę od plantatorów, które supermarkety i w których miastach dostaną konkretne ilości kawy do sprzedania lub którym konsumentom ostatecznie wolno będzie pić ten napar. Takie dostosowania w odpowiedzi na zmiany cen zachodzą w gospodarce rynkowej cały czas, zwykle tak płynnie i szybko, że ledwo je zauważamy.
Pomyśl o wszystkich sezonowych produktach spożywczych, które są szeroko dostępne i niedrogie w określonych porach roku (np. świeże truskawki na przełomie czerwca i lipca), ale droższe w pozostałych. Ludzie zmieniają swoją dietę, a restauracje menu w odpowiedzi na te wahania cen, bez zamieszania i fanfar. Zarówno dla gospodarki amerykańskiej, jak i dla polskiej, ale też dla gospodarki światowej jako całości rynki – to znaczy popyt i podaż – są fundamentalnym mechanizmem społecznym, który odpowiada na podstawowe pytania o to, co jest produkowane, jak jest produkowane i dla kogo jest produkowane.
### Key Concepts and Summary
Nadwyżka konsumenta to różnica między ceną, którą konsumenci są gotowi zapłacić w oparciu o swoje preferencje, a ceną równoważącą rynek. Nadwyżka producenta z kolei to różnica między ceną, przy której producenci są skłonni zaoferować swój produkt na rynku, biorąc pod uwagę koszty produkcji, a ceną równowagi rynkowej. Nadwyżka społeczna (całkowita, ekonomiczna) to suma nadwyżek konsumenta i producenta. Wartość całkowitej nadwyżki jest maksymalna, jeśli na rynku panuje równowaga. Przy każdym innym poziomie ceny i ilości nadwyżka ekonomiczna będzie mniejsza. Strata społeczna to zmniejszenie całkowitej nadwyżki, które jest konsekwencją zmniejszenia lub zwiększenia ilości będącej przedmiotem transakcji rynkowych w stosunku do poziomu równoważącego rynek.
### Self-Check Question
### Review Questions
### Critical Thinking Questions
|
# Elastyczność
## Wprowadzenie do rozdziału
Każdy, kto zajmuje się ekonomią, zna prawo popytu: wyższa cena prowadzi do mniejszego zapotrzebowania, ceteris paribus. Jednak odpowiedź na pytanie o to, o ile niższa będzie wielkość zapotrzebowania w reakcji na wzrost ceny, nie jest już taka prosta. Podobnie prawo podaży mówi, że wyższa cena przynosi większą ilość oferowaną na rynku przez sprzedawców, ceteris paribus. Pytanie brzmi: o ile większą? W tym rozdziale wyjaśnimy, jak znaleźć odpowiedzi na te pytania i dlaczego są one niezwykle ważne w świecie realnych problemów ekonomicznych.
Analizowanie tych zagadnień wymaga zrozumienia pojęcia elastyczności. Elastyczność (ang. ) to koncepcja ekonomiczna, która mierzy wrażliwość jednej zmiennej na zmiany innej zmiennej. Załóżmy, że zrzucasz dwa przedmioty z balkonu na drugim piętrze. Pierwszym jest piłka tenisowa, drugim – cegła. Który przedmiot odbije się wyżej? Oczywiście piłka tenisowa. Powiedzielibyśmy, że piłka tenisowa ma większą elastyczność.
Rozważmy teraz przykład ekonomiczny. Podatek akcyzowy nałożony na papierosy jest przykładem instrumentu finansowego mającego zmniejszyć negatywne konsekwencje konsumpcji tego specyficznego dobra, które co prawda sprawia subiektywną przyjemność osobie uzależnionej od nikotyny, ale obiektywnie szkodzi zarówno samemu palaczowi, jak i całemu społeczeństwu. W 2021 r. w Polsce stawka podatku akcyzowego nałożonego przez ministra finansów na papierosy wyniosła 747,67 zł za 1 tys. sztuk. Zgodnie z planami rządu podatek akcyzowy miałby w 2022 r. wzrosnąć o 5%, co przełożyłoby się na średni wzrost ceny paczki papierosów o 30 gr. Kluczowe pytanie brzmi: jeśli taka propozycja zostanie ostatecznie wprowadzona w życie, o ile spadną zakupy papierosów?
Podatki nakładane na wyroby tytoniowe służą dwóm celom: zwiększaniu dochodów podatkowych państwa i zniechęcaniu do konsumpcji papierosów. Jeżeli wyższy podatek skutecznie zmniejsza konsumpcję i powoduje duży spadek wielkości sprzedaży papierosów, wówczas wzrost podatku nie przyniesie państwu wyraźnie wyższych dochodów. Natomiast w sytuacji, w której wyższy podatek od papierosów nie doprowadzi do znacznego spadku popytu, państwo uzyska większe dochody. Tak więc gdy rząd próbuje określić skutki zmiany stawki podatku od papierosów, musi przeanalizować, w jakim stopniu podatek wpływa na liczbę kupowanych papierosów. To zagadnienie jest znacznie szersze i nie dotyczy jedynie państwa i zbieranych przez nie podatków. Każde przedsiębiorstwo boryka się bowiem z podobnymi problemami. Kiedy rozważa podniesienie ceny, musi określić, jak bardzo jej wzrost zmniejszy wielkość zapotrzebowania na to, co sprzedaje. I odwrotnie, gdy przedsiębiorstwo wystawia swoje produkty na sprzedaż, musi oczekiwać (lub mieć nadzieję), że niższa cena doprowadzi do znacznego wzrostu zapotrzebowania. |
# Elastyczność
## Elastyczność cenowa popytu i podaży
Zarówno krzywa popytu, jak i krzywa podaży pokazują zależność pomiędzy ceną rynkową a liczbą jednostek, na którą jest zapotrzebowanie lub która jest oferowana przez sprzedawców, ceteris paribus.. Elastyczność cenowa (ang. ) to stosunek procentowej zmiany wielkości popytu (Qd) lub podaży (Qs) do wywołującej je procentowej zmiany ceny. Elastyczność cenowa popytu (ang. ) to procentowa zmiana wielkości zapotrzebowania na dane dobro lub usługę podzielona przez procentową zmianę ceny. Elastyczność cenowa podaży (ang. ) to procentowa zmiana ilości oferowanej podzielona przez procentową zmianę ceny.
Aby w łatwy sposób wykorzystać kategorie elastyczności, możemy podzielić wartości, jakie przyjmuje ta zmienna, na trzy przedziały, klasyfikujące popyt lub podaż, dla których jest ona liczona, na elastyczne, nieelastyczne lub o elastyczności jednostkowej. Ponieważ w odniesieniu do większości dóbr i usług działa prawo popytu, tzn. że cena i wielkość zapotrzebowania zmieniają się w przeciwnych kierunkach, współczynnik elastyczności cenowej popytu jest zazwyczaj liczbą ujemną.
Dlatego wartość współczynnika elastyczności cenowej popytu podaje się zwykle jako wartość bezwzględną, bez znaku ujemnego. W zestawieniu zawartym w znajdują się wartości bezwzględne współczynnika elastyczności cenowej popytu. Elastyczny popyt (ang. ) lub elastyczna podaż (ang. ) występują, gdy wartość współczynnika elastyczności cenowej popytu lub podaży jest większa niż 1, co oznacza, że reakcja zapotrzebowania lub ilości oferowanej na zmianę ceny jest silniejsza niż sama zmiana ceny. Elastyczności mniejsze niż 1 wskazują, że procentowa zmiana zapotrzebowania lub ilości oferowanej jest mniejsza niż wywołująca je zmiana ceny, co oznacza nieelastyczny popyt (ang. ) lub nieelastyczną podaż (ang. ). Elastyczności jednostkowe (ang. ) wskazują na proporcjonalną (taką samą) zmianę zapotrzebowania lub ilości oferowanej w stosunku do wywołującej je zmiany ceny. Powyższe stwierdzenia podsumowuje .
Aby obliczyć elastyczność wzdłuż krzywej popytu lub podaży, ekonomiści używają średniej procentowej zmiany zarówno ilości, jak i ceny. Nazywa się to elastycznością łukową i jest reprezentowane następującymi równaniami:
Zaletą metody łukowej pomiaru elastyczności (ang. ) jest to, że uzyskuje się taką samą wartość elastyczności między dwoma punktami, niezależnie od tego, czy cena wzrasta, czy spada. Dzieje się tak, ponieważ do wzoru wchodzi w obu przypadkach ta sama podstawa (średnia ilość i średnia cena). Oczywiście, niekiedy liczy się również elastyczność punktową, wówczas zmiana wielkości zapotrzebowania (ilości oferowanej) jest odniesiona do wartości początkowej, a nie średniej z wartości początkowej i końcowej, tak jak w przypadku elastyczności łukowej.
### Obliczanie elastyczności cenowej popytu
Obliczmy elastyczność cenową popytu między punktami A i B oraz między punktami G i H jak na .
Najpierw stosujemy wzór do obliczenia elastyczności, gdy cena spada z 70 jednostek pieniężnych w punkcie B do 60 w punkcie A:
A zatem wartość bezwzględna elastyczności popytu między tymi dwoma punktami wynosi 0,45. Jest to wartość mniejsza od jedności, co oznacza, że popyt w tym przedziale jest nieelastyczny. Przypomnijmy, że elastyczność cenowa popytu jest zazwyczaj ujemna, ponieważ cena i wielkość zapotrzebowania z reguły zmieniają się w przeciwnych kierunkach (na krzywej popytu). Niemniej, zgodnie z konwencją przyjętą w tym podręczniku, będziemy traktować elastyczność jako wartość dodatnią. Z matematycznego punktu widzenia będziemy wykorzystywać wartość bezwzględną obliczonego wyniku. Od tej chwili ignorujemy ten szczegół, pamiętając o interpretowaniu elastyczności w kategoriach liczb dodatnich.
Oznacza to, że wzdłuż krzywej popytu między punktem B i A zmiana ceny o 1% wywołuje zmianę zapotrzebowania o 0,45% (czyli o mniej niż 1%). Jednoprocentowa zmiana ceny wywołuje procentowo mniejszą zmianę zapotrzebowania. Na przykład wzrost ceny o 10% spowoduje spadek wielkości zapotrzebowania jedynie o 4,5%. Obniżenie ceny o 10% spowoduje wzrost wielkości zapotrzebowania jedynie o 4,5%. Poniższa przeprowadzi cię krok po kroku przez proces obliczania elastyczności cenowej popytu.
### Obliczanie elastyczności cenowej podaży
Załóżmy, że typowe mieszkanie jest wynajmowane za 2600 zł miesięcznie i po tej cenie właściciele wynajmują 10 tys. lokali, jak pokazano na . Kiedy cena wzrasta do 2800 zł miesięcznie, właściciele oferują na rynku 13 tys. lokali. O ile procent wzrasta liczba mieszkań oferowana na rynku? Jaka jest wrażliwość podaży na zmianę ceny?
Wykorzystując wzór na metodę łukową pomiaru elastyczności (ang. ), mamy:
Podobnie jak elastyczność popytu, elastyczność podaży nie jest mierzona w żadnych jednostkach. Elastyczność to stosunek jednej zmiany procentowej do innej zmiany procentowej - nic więcej - i odczytujemy ją jako wartość bezwzględną. W tym przypadku wzrost ceny o 1% powoduje wzrost ilości oferowanej o 3,5%. Wartość współczynnika elastyczności cenowej podaży większa niż 1 oznacza, że procentowa zmiana ilości oferowanej jest większa niż procentowa zmiana ceny. Jeśli zaczynasz się zastanawiać, czy te obliczenia uwzględniają nachylenie krzywej, przeczytaj poniższą .
### Kluczowe pojęcia i podsumowanie
Elastyczność cenowa mierzy reakcję zapotrzebowania lub ilości danego dobra oferowanej na rynku na zmianę jego ceny. Obliczamy ją jako względną (procentową) zmianę zapotrzebowania (lub ilości oferowanej na rynku) podzieloną przez względną (procentową) zmianę ceny. Popyt lub podaż mogą być elastyczne (bardzo wrażliwe), o elastyczności jednostkowej lub nieelastyczne (mało wrażliwe). Elastyczny popyt lub podaż wskazują, że zapotrzebowanie lub ilość oferowana reagują na zmiany cen w sposób bardziej niż proporcjonalny. Nieelastyczne popyt lub podaży to takie, w wypadku których dana względna zmiana ceny powoduje mniejszą co do skali względną zmianę wielkości zapotrzebowania i ilości oferowanej. Elastyczność jednostkowa oznacza, że dana procentowa zmiana ceny prowadzi do takiej samej procentowej zmiany zapotrzebowania lub ilości oferowanej.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Zadania
|
# Elastyczność
## Skrajne przypadki elastyczności
Popyt/podaż doskonale elastyczne (ang. ) lub inaczej nieskończenie elastyczne popyt/podaż (ang. ) [wykorzystywany jest również termin elastyczność doskonała (ang. )] odnosi się do skrajnej sytuacji, w której wielkość zapotrzebowania (Qd) lub ilość oferowana na rynku (Qs) zmienia się o nieskończoną wartość w odpowiedzi na jakąkolwiek zmianę ceny rynkowej. W obu przypadkach krzywa podaży (ang. ) i krzywa popytu (ang. ) są poziome, jak pokazano na . Doskonale elastyczne krzywe podaży występują na realnych rynkach niezwykle rzadko, niemniej jednak dobra, które produkuje się wykorzystując stosunkowo łatwo dostępne nakłady i których produkcję można łatwo zwiększać, będą się charakteryzować wysoce elastycznymi krzywymi podaży (np. pizza, chleb, książki lub ołówki). Podobnie rzecz ma się z popytem doskonale elastycznym, który – jako teoretyczny koncept – występuje w modelu doskonale konkurencyjnego rynku, co zostanie omówione w jednym z kolejnych rozdziałów podręcznika. Jednak towary luksusowe, dobra, na które konsumenci wydają istotną część swoich dochodów, oraz dobra mające wiele substytutów prawdopodobnie będą charakteryzowały się wysoce elastycznymi krzywymi popytu. Przykładami takich dóbr są rejsy po Karaibach i sportowe samochody.
Popyt/podaż doskonale nieelastyczne (ang. ), jak pokazuje , odnoszą się do skrajnego przypadku, w którym procentowa zmiana ceny, bez względu na jej wielkość, nie prowadzi do zmiany zapotrzebowania lub ilości oferowanej. Podczas gdy doskonale nieelastyczna podaż jest skrajnym przypadkiem, który wyłącznie jako teoretyczna koncepcja wykorzystywany jest w rozważaniach makroekonomicznych, towary, do których produkcji wykorzystuje się czynniki wytwórcze o ograniczonej podaży, najprawdopodobniej będą charakteryzować się wysoce nieelastycznymi krzywymi podaży. Przykładami są pierścionki z brylantami lub mieszkania w doskonałych lokalizacjach, takich jak te z widokiem na Central Park w Nowym Jorku lub warszawskie Łazienki.
Podobnie, podczas gdy doskonale nieelastyczny popyt w zasadzie nie występuje na realnie istniejących rynkach, dobra zaspokajające najważniejsze potrzeby (żywność) i niemające bliskich substytutów mogą mieć wysoce nieelastyczne krzywe popytu. Tak jest w przypadku specjalistycznych leków i paliw silnikowych.
Stała elastyczność jednostkowa (ang. ), zarówno dla krzywej podaży, jak i popytu, występuje, gdy dla każdych rozmiarów popytu lub podaży zmiana ceny rynkowej o 1% powoduje zmianę zapotrzebowania lub ilości oferowanej również o 1%. przedstawia krzywą popytu o stałej elastyczności jednostkowej. Korzystając z elastyczności łukowej, można obliczyć, że gdy pomiędzy punktami A i B na krzywej popytu cena zmienia się o 66,7%, to wielkość zapotrzebowania również zmienia się o 66,7%, stąd elastyczność wynosi 1. Między punktami B i C cena ponownie zmienia się o 66,7%, podobnie jak zapotrzebowanie. Między punktami C i D zmiany procentowe ceny rynkowej i zapotrzebowania też wynoszą 66,7%. Dla każdego punktu na krzywej popytu procentowa zmiana ceny jest równa procentowej zmianie zapotrzebowania, stąd elastyczność popytu w każdym punkcie wynosi 1. Zauważ, że w kategoriach absolutnych spadki ceny w miarę schodzenia w dół po krzywej popytu nie są identyczne. Cena spada o 8 jednostek pieniężnych przy przejściu z punktu A do B, ale tylko o 4, gdy przemieszczamy się z punktu B do C, i o 2 jednostki przy ruchu z punktu C do D. W rezultacie krzywa popytu o stałej elastyczności jednostkowej ma bardziej strome nachylenie po lewej stronie i bardziej płaskie po prawej oraz kształt wypukłej, zakrzywionej linii (hiperboliczny), a nie prostej.
W przeciwieństwie do krzywej popytu o stałej elastyczności jednostkowej, która ma kształt zakrzywionej linii, krzywa podaży o stałej elastyczności jednostkowej jest linią prostą przechodzącą przez początek układu współrzędnych. Między każdą parą punktów zaznaczonych na krzywej podaży występuje taka sama różnica w ilości oferowanej, równa w naszym przypadku 30. Natomiast wielkości procentowe, obliczone przy wykorzystaniu elastyczności łukowej, maleją w miarę przesuwania się z lewej strony do prawej: z 28,6% do 22,2% i 18,2%. Dzieje się tak, ponieważ przy obliczaniu procentowych zmian ilości oferowanej mianownik wyrażenia cały czas rośnie, podczas gdy wartość licznika nie ulega zmianie.
Przyjrzyjmy się zmianom ceny przy ruchu w górę krzywej podaży na . Przesuwając się z punktu D do E, a następnie do punktu F i G, zmiana ceny jest każdorazowo taka sama w kategoriach absolutnych i wynosi 1,50 jednostki pieniężnej. Jednak zmiany cen w kategoriach procentowych, biorąc pod uwagę elastyczność łukową, maleją: z 28,6% do 22,2% i 18,2%. Ponownie wynika to z faktu, że mianownik wyrażenia służącego obliczeniu elastyczności cały czas rośnie (wraz ze wzrostem poziomu ceny rynkowej), natomiast licznik pozostaje na niezmienionym poziomie. Przy ruchu wzdłuż krzywej podaży o stałej elastyczności jednostkowej procentowe wzrosty ilości oferowanej, odkładane na osi poziomej, dokładnie odpowiadają procentowym wzrostom ceny rynkowej, odkładanym na osi pionowej, tak więc krzywa podaży ma stałą elastyczność jednostkową dla wszystkich tworzących ją punktów.
### Kluczowe pojęcia i podsumowanie
Popyt lub podaż doskonale elastyczne występują w skrajnym przypadku, w którym wielkość zapotrzebowania lub ilości oferowanej zmienia się o nieskończoną wartość w odpowiedzi na jakąkolwiek zmianę ceny rynkowej. Natomiast popyt lub podaż doskonale nieelastyczne występują w skrajnej sytuacji, w której procentowa zmiana ceny rynkowej, bez względu na jej wielkość, nie prowadzi do zmiany ani zapotrzebowania, ani ilości oferowanej. Stała elastyczność jednostkowa krzywej podaży lub popytu odnosi się do sytuacji, w której zmiana ceny o 1% zawsze powoduje analogiczną zmianę ilości oferowanej i zapotrzebowania.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Problemy
|
# Elastyczność
## Elastyczność a cena
Wykorzystanie kategorii elastyczności jest przydatne z wielu powodów, z których najważniejszym jest polityka cenowa. Przeanalizujmy, jaki jest związek elastyczności z utargiem i cenami zarówno w długim, jak i krótkim okresie. Najpierw przyjrzyjmy się elastycznościom popytu na niektóre powszechnie nabywane w USA dobra i usługi.
przedstawia wartości współczynnika elastyczności cenowej popytu na wybrane dobra i usługi, zaczerpnięte z różnych badań przeprowadzonych przez ekonomistów w Stanach Zjednoczonych, uszeregowane rosnąco.
Należy pamiętać, że popyt na dobra zaspokajające najważniejsze potrzeby, takie jak mieszkania i elektryczność, jest nieelastyczny, podczas gdy zapotrzebowanie na produkty, które zaspokajają potrzeby mniej istotne z punktu widzenia przeciętnego konsumenta, takie jak posiłki w restauracji, jest bardziej wrażliwy na zmiany ceny rynkowej. Jeśli cena posiłku restauracyjnego wzrośnie o 10%, wielkość zapotrzebowania zmniejszy się o 22,7%. Wzrost ceny rynkowej mieszkań o 10% spowoduje jedynie nieznaczny spadek zapotrzebowania – o 1,2%.
### Czy podnoszenie ceny przynosi większy utarg?
Wyobraź sobie, że zespół muzyczny występuje w hali z 15 tys. miejsc siedzących. Aby uprościć ten przykład, załóżmy, że członkowie zespołu zatrzymują dla siebie wszystkie pieniądze ze sprzedaży biletów. Przyjmijmy dalej, że zespół ponosi koszty swojego występu, ale te koszty, np. podróż i przygotowanie sceny, są takie same (stałe) bez względu na liczbę osób na widowni. Na koniec załóżmy, że wszystkie bilety mają tę samą cenę. (Wysnute tu wnioski dotyczą również sytuacji, gdy ceny biletów na niektóre miejsca są droższe niż na inne, ale obliczenia stają się wówczas bardziej skomplikowane). Członkowie zespołu wiedzą, że mają do czynienia z krzywą popytu o ujemnym nachyleniu; tzn. jeśli cena biletów wzrośnie, zapotrzebowanie spadnie i uda się sprzedać mniej biletów. W jaki sposób wyznaczyć cenę biletów tak, aby uzyskać największy utarg całkowity, który w tym przykładzie, ze względu na występowanie tylko stałych kosztów, będzie również oznaczał największe zyski?
Zauważmy na marginesie, że decyzję, której warunki zostały naszkicowane w powyższym akapicie, ekonomiści nazywają czystym problemem sprzedaży (ang. ) i jest ona charakterystyczna dla wszystkich modeli biznesowych, w których – upraszczając – chodzi o to, żeby coś wypełnić. Podobnie jak w przypadku hali widowiskowej rzecz się ma ze środkami transportu (np. samolotem lub pociągiem), aulą wykładową, a także płatnym odcinkiem autostrady. Czy zespół powinien sprzedać więcej biletów po niższej cenie, czy raczej mniej biletów po cenie wyższej?
Kluczową kwestią w rozważaniach nad zmaksymalizowaniem wpływów z utargu jest elastyczność cenowa popytu. Utarg całkowity to cena pomnożona przez liczbę sprzedanych biletów. Wyobraź sobie, że członkowie zespołu zaczynają zastanawiać się nad ustaleniem konkretnej ceny za bilet, co oczywiście zdeterminuje wielkość sprzedaży. Wybierając określoną cenę, można oczekiwać trzech różnych konsekwencji, przedstawionych w . Jeżeli popyt jest elastyczny przy danej cenie, zespół powinien ją obniżyć, ponieważ procentowy spadek ceny spowoduje większy procentowy wzrost sprzedanej liczby biletów, a tym samym zwiększenie utargu całkowitego. Jeśli jednak popyt dla wybranego poziomu ceny jest nieelastyczny, członkowie zespołu powinni ją podnieść, ponieważ procentowy wzrost ceny spowoduje wprawdzie spadek liczby sprzedanych biletów, ale o mniejszej skali, co umożliwi wzrost utargu. Jeśli popyt ma elastyczność jednostkową dla wybranego poziomu ceny, wówczas procentowa zmiana zapotrzebowania będzie identyczna jak umiarkowana procentowa zmiana ceny – tak więc członkowie zespołu uzyskają taki sam utarg niezależnie od tego, czy (umiarkowanie) zwiększą lub zmniejszą cenę biletu.
Co się stanie, jeśli zespół będzie obniżał cenę, ponieważ popyt wciąż będzie elastyczny, aż osiągnie poziom cen umożliwiający sprzedaż wszystkich 15 tys. miejsc i wypełnienie hali? Jeśli popyt pozostanie elastyczny przy tej liczbie, zespół może spróbować przenieść się do większej hali, aby uzyskać jeszcze większy wzrost utargu, związany z dalszymi obniżkami ceny. Jeśli jednak hala na 15 tys. miejsc jest jedyną dostępną lub też większa arena znacznie zwiększyłaby koszty organizacji koncertu, rozwiązanie to może nie zadziałać.
Z drugiej strony, niektóre zespoły są tak sławne lub mają tak zagorzałych fanów, że popyt na bilety może być nieelastyczny aż do momentu, w którym hala jest pełna. Członkowie tych zespołów mogą, jeśli zechcą, podnosić cenę biletu nawet do poziomu, który uniemożliwi wyprzedaż wszystkich miejsc. Przyniesie to bowiem – jak na ironię – większy utarg niż w sytuacji, w której sprzedają wszystkie dostępne bilety, ale po niższej cenie. Dzieje się tak jednak dość rzadko. Zazwyczaj limitem cen, powyżej którego przestają one rosnąć, jest właśnie liczba dostępnych miejsc. Przecież fani, którzy – gdyby musieli – przeznaczyliby jeszcze więcej pieniędzy na bilet, mogą je wówczas wydać na koszulki lub gadżety związane z zespołem.
### Czy przedsiębiorstwa mogą przenosić koszty na konsumentów?
Dla większości przedsiębiorstw najważniejszym obszarem ich codziennej aktywności są próby znalezienia takich sposobów produkcji, które umożliwią obniżenie kosztów działalności i tym samym zagwarantują wyższe zyski. Jednak w pewnych przypadkach cena kluczowego czynnika wytwórczego, na którą przedsiębiorstwo nie ma wpływu, może wzrosnąć. Na przykład wiele przedsiębiorstw chemicznych wykorzystuje ropę naftową jako najważniejszy surowiec do swojej produkcji, ale z oczywistych względów nie mają one kontroli nad ceną ropy na światowych rynkach. Dla kawiarni kluczowym czynnikiem wytwórczym jest kawa, ale nie kontrolują one cen jej ziaren na giełdach towarowych. Jeśli koszt kluczowego dla danego rodzaju produkcji czynnika wytwórczego wzrośnie, to czy przedsiębiorstwo może w całości przenieść tę podwyżkę na konsumentów, po prostu podnosząc ceny? I odwrotnie, jeśli wynalezione zostaną nowe i tańsze sposoby produkcji, to czy przedsiębiorstwo może przejąć wszystkie korzyści wynikające z tego faktu i zwiększyć swoje zyski, czy też rynek będzie wywierał presję, aby przynajmniej część obniżki kosztów zamieniła się w niższe ceny rynkowe dla nabywców? Kategoria elastyczności cenowej popytu odgrywa kluczową rolę w odpowiedzi na te pytania.
Wyobraź sobie, że jako nabywca produktów farmaceutycznych czytasz w gazecie artykuł o tym, że nastąpił przełom technologiczny w produkcji aspiryny. Dodajmy tu, że Aspiryna to nazwa zastrzeżona dla kwasu acetylosalicylowego; może jej używać wyłącznie koncern Bayer AG, który jako pierwszy zsyntetyzował tę substancję. Inne przedsiębiorstwa posługują się swoimi nazwami i znakami towarowymi, np. w Polsce są to Etopiryna, Excedrin itd. Dzięki tej innowacji każda fabryka produkująca kwas acetylosalicylowy może teraz wytwarzać specyfik taniej. Co to odkrycie oznacza dla ciebie? przedstawia dwie możliwości.
Na panelu (a) krzywa popytu jest bardzo stroma. W tym przypadku postęp technologiczny, który przesuwa krzywą podaży w prawo, z położenia S0 do S1, tak że równowaga przesuwa się z punktu E0 do E1, prowadzi do znacznego obniżenia ceny produktu przy stosunkowo niewielkim wpływie na sprzedawaną ilość. Na panelu (b) krzywa popytu jest niemal płaska. W tym przypadku postęp technologiczny prowadzi do znacznego wzrostu wielkości sprzedaży rynkowej po cenie bardzo zbliżonej do pierwotnej. Ogólnie rzecz biorąc, konsumenci odnoszą większe korzyści, gdy krzywa popytu jest raczej stroma, ponieważ wzrost podaży skutkuje znacznie niższą ceną dla konsumentów. Oczywiście, zależy to od preferencji konsumentów, czy przedkładają znaczny spadek ceny rynkowej przy nieznacznej zmianie wielkości produkcji, czy raczej pokaźny wzrost ilości oferowanej na rynku przez sprzedawców przy nieznacznym tylko spadku ceny. Rozkład korzyści będzie się również zmieniał w sytuacji, w której krzywa podaży będzie przesuwać się w lewo (np. na skutek wzrostu kosztów produkcji). Wówczas stroma krzywa popytu będzie się przekładała na znaczny wzrost cen.
W opisywanym przykładzie producenci aspiryny mogą znaleźć się w trudnym położeniu. Sytuacja przedstawiona na , przy wyjątkowo nieelastycznym popycie, oznacza, że nowy wynalazek może spowodować drastyczny spadek ceny przy niewielkich zmianach ilości będącej przedmiotem transakcji rynkowych. W rezultacie nowa technologia produkcji może prowadzić do spadku utargu, jaki przedsiębiorstwa uzyskują ze sprzedaży aspiryny. Jeśli jednak istnieje silna konkurencja między producentami aspiryny, każdy z nich może nie mieć innego wyboru, jak tylko wynajdować innowacyjne rozwiązania, które pozwolą mu obniżyć koszty produkcji. Ostatecznie jeśli tylko jedna firma nie wdroży nowej technologii redukującej koszty, inne przedsiębiorstwa, które to zrobią, mogą – obniżając ceny rynkowe – doprowadzić ją do bankructwa.
Ponieważ popyt na żywność jest generalnie nieelastyczny, rolnicy często mogą spotkać się z sytuacją taką jak na (a). Oznacza to, że wzrost produkcji prowadzi do znacznego spadku cen, co może obniżyć utarg całkowity otrzymywany przez rolników. I odwrotnie, zła pogoda lub pogorszenie innych warunków, które determinują rozmiary produkcji rolnej, mogą gwałtownie podnieść ceny, tak że utarg całkowity rolnika wzrośnie. pokazuje, w jaki sposób zależności te wpływają na rynek kawy.
Elastyczność decyduje również o tym, czy przedsiębiorstwa mogą przerzucić wyższe koszty na konsumentów. Relatywnie łatwe jest to w wypadku używek, na które popyt jest nieelastyczny. Na przykład popyt na papierosy charakteryzuje się bardzo niską wartością współczynnika elastyczności cenowej popytu wśród uzależnionych od nikotyny osób, które regularnie palą. Badania przeprowadzone przez ekonomistów w USA wskazują, że wzrost ceny papierosów o 10% prowadzi do zmniejszenia liczby wypalanych papierosów jedynie o mniej więcej 3%, a zatem elastyczność popytu na papierosy wynosi 0,3. Jeżeli państwo zwiększy podatki nałożone na papierosy, rezultatem będzie przesunięcie krzywej podaży z położenia S0 do S1, tak jak na (a). Ponieważ jednocześnie równowaga przesuwa się z punktu E0 do E1, ciężar opodatkowania spada głównie na konsumentów, w postaci wyższych cen. Wyższe podatki na papierosy zwiększają dochody podatkowe państwa, ale nie wpływają znacząco na wielkość konsumpcji papierosów.
Jeśli celem państwa jest zmniejszenie liczby wypalanych papierosów, można go osiągnąć, wpływając na popyt, czyli przesuwając go w lewo dzięki finansowanym ze środków publicznych programom zniechęcającym do palenia bądź wspomagającym proces porzucania nałogu. Antynikotynowe kampanie reklamowe w istocie przyniosły pewne efekty w ograniczeniu palenia wśród ludności USA. Gdyby jednak popyt na papierosy był bardziej elastyczny, tak jak na (b), wzrost podatków przesuwający krzywą podaży z położenia S0 do S1 i równowagę z punktu E0 do E1 znacznie zmniejszyłby liczbę wypalanych papierosów. Popyt na papierosy wśród ludzi młodych, którzy dopiero zaczynają palić, wydaje się znacznie bardziej elastyczny niż w przypadku ludzi dorosłych – to znaczy, że w odpowiedzi na dany procentowy wzrost ceny rynkowej liczba palaczy wśród młodzieży zmniejszy się o większy procent niż liczba palaczy wśród dorosłych.
### Elastyczność i rozkład obciążeń podatkowych
Przykład podatków nakładanych na papierosy pokazał, że w sytuacji, w której popyt jest nieelastyczny, daniny nie są skutecznym narzędziem pozwalającym ograniczyć konsumpcję opodatkowanego dobra i prowadzą przede wszystkim do wzrostu cen rynkowych. To, w jakich proporcjach ciężar podatku obciąża konsumentów i producentów, nazywa się rozkładem obciążeń podatkowych (ang. ). Zazwyczaj część podatku jest opłacana przez sprzedawców, a część przez nabywców na rynku opodatkowanego produktu. Jeśli jednak chcemy przewidzieć, która z tych dwóch stron poniesie większy ciężar, wystarczy zbadać elastyczność cenową popytu i podaży. W przykładzie z papierosami łatwo dostrzec, że obciążenie podatkiem spada głównie na nabywców, ponieważ popyt jest mniej elastyczny niż podaż.
Jeśli popyt jest mniej elastyczny niż podaż, konsumenci ponoszą większość obciążeń podatkowych. Jeśli z kolei podaż jest mniej elastyczna niż popyt, większość obciążeń podatkowych spada na sprzedawców.
Powyższy wniosek wydaje się dość oczywisty. Gdy popyt jest nieelastyczny, konsumenci słabo reagują na zmiany cen i wielkość zapotrzebowania zmniejsza się tylko nieznacznie po wprowadzeniu podatku. W przypadku papierosów popyt jest nieelastyczny, ponieważ konsumenci są uzależnieni od tego produktu. Producenci mogą zatem poprzez wyższe ceny przenieść ciężar podatku na konsumentów, bez znacznego spadku ilości równoważącej rynek.
Podobnie dzieje się, gdy państwo wprowadza podatek na rynku o nieelastycznej podaży, takim jak np. hotele przy plaży. Właściciele hoteli nie mają wówczas innego wyjścia, jak tylko zaakceptować niższe ceny, zaś liczba zaoferowanych w równowadze miejsc hotelowych właściwie się nie zmieni. Ciężar podatku przechodzi teraz niemal w całości na sprzedawców. Gdyby podaż była elastyczna, a sprzedawcy mieli możliwość zmiany profilu działalności, reakcja podaży na wprowadzone opodatkowanie byłaby znacznie silniejsza, a ciężar podatku spadający na właścicieli hoteli mniejszy. Podatek doprowadziłby do znacznego zmniejszenia liczby oferowanych miejsc hotelowych przy zachowaniu niemal niezmienionego poziomu cen. przedstawia zależność między rozkładem obciążeń podatkowych a elastycznością popytu i podaży.
Na (a) podaż jest nieelastyczna, tak jak w przykładzie z hotelami przy plaży. Podczas gdy konsumenci mogą zdecydować się na inne sposoby spędzenia wakacji, hotelarze (sprzedawcy) nie są w stanie łatwo zmienić profilu działalności swoich przedsiębiorstw. Wprowadzając podatek, państwo przyczynia się do powstania różnicy (którą ekonomiści nazywają klinem podatkowym) między ceną rynkową płaconą przez konsumentów Pc a przychodem jednostkowym otrzymywanym przez producentów Pp. Innymi słowy, cena rynkowa, którą płacą nabywcy, w części jest zatrzymywana przez sprzedawców (przychód jednostkowy), zaś jej pozostała część trafia do państwa w formie podatku. Odległość między ceną rynkową Pc a przychodem jednostkowym Pp to stawka podatku. Nowa cena rynkowa to Pc, ale sprzedawcy otrzymują tylko jej część (Pp), zaś resztę oddają państwu (Pcp). Ponieważ podatek możemy postrzegać jako składnik podnoszący koszty produkcji, analizowana sytuacja mogłaby zostać zobrazowana przez przesunięcie krzywej podaży w lewo, w taki sposób, aby przecinała popyt przy nowej cenie rynkowej (Pc), co prowadzi do ukształtowania się nowej ilości równowagi, tj. Qt. Dla uproszczenia jednak pomija przesunięcie krzywej podaży.
Dochód podatkowy jest zdefiniowany jako zacieniony obszar na , który uzyskujemy, mnożąc stawkę podatku nałożonego na dobro lub usługę (w naszym przykładzie na papierosy) przez całkowitą liczbę sprzedanych produktów Qt. Obciążenie podatkowe konsumentów jest konsekwencją wzrostu ceny z początkowego poziomu Pe do nowej ceny równowagi Pc. Obciążenie podatkowe sprzedawców jest wyrażone jako różnica między początkową ceną równowagi Pe a przychodem jednostkowym, który uzyskują po nałożeniu podatku (Pp). Na (a) ciężar podatku spada w nieproporcjonalnie dużym stopniu na sprzedawców, a większa część wpływów podatkowych (obszar zacieniony) wynika z niższego przychodu jednostkowego otrzymywanego przez sprzedających, a nie z wyższych cen płaconych przez kupujących. (b) pokazuje przykład rynku wyrobów tytoniowych, na który nałożono podatek akcyzowy i na którym podaż jest bardziej elastyczna niż popyt. Obciążenie podatkiem dotyka tym razem w nieproporcjonalnie dużym stopniu konsumentów, o czym świadczy duża różnica między płaconą przez nich nową ceną rynkową Pce. Sprzedawcy otrzymują wprawdzie niższy przychód jednostkowy w porównaniu z pierwotną ceną równowagi, ale różnica ta jest znacznie mniejsza niż zmiana ceny dla konsumentów. Na podstawie analizy wykorzystującej kategorie elastyczności popytu i podaży można również przewidzieć, czy podatek nałożony na konkretny rynek może wygenerować duże wpływy do budżetu. Im bardziej elastyczny popyt, tym bardziej prawdopodobne, że konsumenci zmniejszą zapotrzebowanie zamiast płacić wyższe ceny. Im bardziej elastyczna podaż, tym większe prawdopodobieństwo, że sprzedawcy zmniejszą ilość oferowaną, zamiast godzić się na niższe ceny. Na rynku, na którym zarówno popyt, jak i podaż są bardzo elastyczne, nałożenie podatku akcyzowego generuje niskie wpływy do budżetu.
Niektórzy uważają, że podatki akcyzowe wpływają negatywnie głównie na konkretne branże, na które są nakładane. Na przykład akcyza na wyroby medyczne obowiązująca od 2013 r. w USA jest rozwiązaniem kontrowersyjnym, ponieważ może zmniejszać rentowność przedsiębiorstw rozpoczynających taką działalność, a tym samym negatywnie wpływać na skalę innowacji w branży medycznej. To z kolei niekorzystnie odbije się na wszystkich potencjalnych konsumentach nowoczesnych produktów medycznych. Jednak to, czy ciężar podatku spadnie głównie na producentów wyrobów medycznych, czy na pacjentów, zależy po prostu od elastyczności popytu i podaży.
### Wpływ długookresowy a krótkookresowy
Wartości elastyczności są często niższe w krótkim niż w długim okresie. Jeśli chodzi o popyt rynkowy, czasami zmiana zapotrzebowania (Qd) może być trudna w krótkim okresie, ale łatwiejsza w długim. Dobrym przykładem tych zależności jest sposób funkcjonowania rynku energii. W krótkim okresie bardzo trudno jest znacząco zmniejszyć zużycie surowców energetycznych. Owszem, można czasem zabrać się z kimś samochodem zamiast jechać własnym i ustawić domowy termostat na kilka stopni mniej, jeśli koszty paliwa, gazu lub ciepła wzrosną, ale to wszystko. Natomiast w długim okresie można zmienić samochód na małolitrażowy, poszukać pracy bliżej miejsca zamieszkania, kupić energooszczędne sprzęty AGD (żarówki!) lub poprawić izolację energetyczną domu. W efekcie popyt na energię jest w krótkim okresie raczej nieelastyczny, a w długim okresie dość elastyczny.
jest przykładem opartym z grubsza na doświadczeniach historycznych, który pokazuje reakcję zapotrzebowania (Qd) na zmiany cen w krótkim i długim okresie. W 1973 r. cena ropy naftowej była równa 12 dol. za baryłkę, a całkowita konsumpcja ropy w USA wynosiła 17 mln baryłek dziennie. W tym samym roku kraje będące członkami Organizacji Krajów Eksportujących Ropę Naftową (OPEC) wstrzymały eksport ropy do Stanów Zjednoczonych na sześć miesięcy, ponieważ arabscy członkowie organizacji chcieli w ten sposób ukarać USA za poparcie Izraela. OPEC nie przywrócił rozmiarów eksportu do pierwotnego poziomu aż do roku 1975 – posunięcie to możemy interpretować jako przesunięcie krzywej podaży w lewo na amerykańskim rynku ropy naftowej. (a) i (b) pokazują ten sam pierwotny punkt równowagi i identyczne przesunięcie krzywej podaży w lewo z położenia S0 do S1.
(a) pokazuje nieelastyczny popyt na ropę w krótkim okresie podobny do tego, jaki istniał w Stanach Zjednoczonych w 1973 r. Na (a) nowa równowaga (E1) występuje przy cenie 25 dol. za baryłkę, czyli przy mniej więcej dwukrotności ceny sprzed wstrzymania eksportu przez kraje OPEC i przy ilości równowagi wynoszącej 16 mln baryłek dziennie. (b) pokazuje, jaki byłby efekt, gdyby popyt na ropę w USA był bardziej elastyczny, co w dłuższej perspektywie byłoby bardziej prawdopodobne. Ta alternatywna równowaga (E1) spowodowałaby wzrost ceny rynkowej tylko do poziomu 14 dol. za baryłkę i większy spadek ilości równowagi – do 13 mln baryłek dziennie. Na przykład w 1983 r. zużycie ropy naftowej w USA wyniosło 15,3 mln baryłek dziennie, czyli mniej niż w 1973 lub 1975 r. Zużycie ropy w USA spadło, mimo że gospodarka amerykańska mierzona wartością PKB była o około jedną czwartą większa w roku 1983 niż w 1973. Głównym powodem zmniejszenia zużycia ropy było to, że wyższe ceny energii pobudziły wysiłki na rzecz jej oszczędzania, a po dekadzie poprawiania izolacji energetycznej domów, używania mniej paliwożernych samochodów, bardziej wydajnych urządzeń i maszyn oraz innych działań oszczędzających paliwo popyt na energię stał się bardziej elastyczny.
Po stronie podażowej rynku producentom towarów i usług zazwyczaj łatwiej jest zwiększać produkcję w perspektywie kilkuletniej niż w krótkim, kilkumiesięcznym okresie. W końcu w krótkim okresie zbudowanie nowej fabryki, zatrudnienie wielu nowych pracowników lub otwarcie nowych sklepów może być bardzo kosztowne lub wręcz niemożliwe. Jednak w czasie kilku lat wszystkie te działania stają się znacznie tańsze i łatwiejsze.
Na większości rynków dóbr i usług wahania cen rynkowych są większe niż zmiany ilości równowagi w krótkim okresie, ale wahania ilości równowagi są zazwyczaj większe niż zmiany cen w długim okresie. Podstawową przyczyną jest to, że podaż i popyt są często nieelastyczne w krótkim okresie, więc zmiany w popycie lub podaży mogą spowodować stosunkowo większą zmianę ceny równowagi rynkowej. Ponieważ jednak podaż i popyt są bardziej elastyczne w długim okresie, długookresowe ruchy cen są bardziej stłumione, a ilość łatwiej dostosowuje się do zmian sytuacji rynkowej.
### Kluczowe pojęcia i podsumowanie
Na rynkach dóbr i usług wielkości podaży i popytu często stosunkowo ociężale reagują na zmiany cen w krótkim okresie, natomiast w długim okresie skala reakcji jest już znacznie większa. W rezultacie popyt i podaż często (ale nie zawsze) są relatywnie nieelastyczne w krótkim okresie i stosunkowo elastyczne – w długim. Rozkład obciążeń podatkowych zależy od względnej elastyczności cenowej podaży i popytu. Gdy wartość współczynnika elastyczności cenowej podaży jest większa od wartości współczynnika elastyczności cenowej popytu, większość obciążeń podatkowych spada na nabywców, zaś gdy wartość współczynnika elastyczności cenowej popytu jest większa od wartości współczynnika elastyczności cenowej podaży, większość kosztów podatku ponoszą producenci. Wpływy do budżetu z tytułu podatku są tym większe, im bardziej nieelastyczny jest popyt i podaż.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Problemy
|
# Elastyczność
## Pozacenowe parametry elastyczności
Koncepcja elastyczności, czyli ocena tego, w jaki sposób względna zmiana jednej zmiennej powoduje względną zmianę innej zmiennej, nie dotyczy jedynie reakcji ilości oferowanej na rynku i zapotrzebowania na zmiany ceny danego dobra. Przypomnijmy, że popyt (Qd) zależy nie tylko od ceny dobra, lecz również od dochodów, gustów i preferencji, cen dóbr pokrewnych itd. Podobnie podaż (Qs) zależy nie tylko od wysokości cen rynkowych, lecz także od czynników determinujących koszty produkcji. Możemy zmierzyć elastyczność dla dowolnej determinanty podaży i popytu, nie tylko dla ceny.
### Elastyczność dochodowa popytu
Elastyczność dochodowa popytu (ang. ) to procentowa zmiana wielkości popytu podzielona przez procentową zmianę dochodu.
Dla większości produktów elastyczność dochodowa popytu jest zazwyczaj dodatnia: to znaczy, że wzrost dochodu powoduje wzrost wielkości popytu. Takie zachowanie jest na tyle powszechne, że wykazujące je dobra nazywamy dobrami normalnymi (ang. ). Jednak w przypadku niektórych dóbr przy wzroście dochodu nabywcy zmniejszają swoje zapotrzebowanie i kupują mniej, np. hamburgerów (a więcej steków) czy taniego wina (a więcej importowanego piwa). Kiedy elastyczność dochodowa popytu jest ujemna, mamy do czynienia z dobrem niższego rzędu (ang. ). Czasami elastyczność dochodowa jest zbliżona do zera, wówczas popyt na dane dobra nie zmienia się wraz ze wzrostem dochodu. Przykładami dóbr, w wypadku których elastyczność dochodowa wynosi 0, są sól, sznurówki i trumny.
Pojęcia dóbr normalnych i niższego rzędu wprowadziliśmy w . Wyższy poziom dochodu powoduje przesunięcie krzywej popytu na dobro normalne w prawo, co oznacza, że elastyczność dochodowa popytu jest dodatnia. To, jak daleko przesunie się popyt, zależy od wartości dochodowej elastyczności popytu. Wyższa elastyczność dochodowa oznacza większą skalę przesunięcia. Jednak dla dobra niższego rzędu, tzn. gdy elastyczność dochodowa popytu jest ujemna, wyższy poziom dochodu spowoduje przesunięcie krzywej popytu na to dobro w lewo. Ponownie to, jak bardzo przesuwa się krzywa, zależy od (ujemnej) wartości elastyczności dochodowej. W przypadku dóbr o elastyczności dochodowej równej zero, zmiana dochodu nie będzie przesuwać krzywej popytu ani w prawo, ani w lewo.
### Mieszana elastyczność cenowa popytu
Zmiana ceny jednego dobra może zmienić popyt na inne. Jeśli dwa dobra są komplementarne, jak chleb i masło lub kawa i cukier, to spadek ceny jednego doprowadzi do wzrostu popytu na drugie. Jednak jeśli dwa dobra są substytutami, np. bilety lotnicze i kolejowe lub coca-cola i pepsi-cola, wówczas spadek ceny jednego dobra spowoduje, że ludzie będą zwiększać jego konsumpcję, zmniejszając jednocześnie zakupy drugiego. Tańsze bilety lotnicze przynoszą zmniejszenie liczby kupowanych biletów kolejowych i odwrotnie.
Mieszana elastyczność cenowa popytu (ang. ) pozwala ocenić, jaka relacja łączy dwa dobra. Mieszana elastyczność cenowa popytu jest zatem miarą względnej zmiany wielkości popytu na dobro A, jaka zachodzi pod wpływem określonej względnej zmiany ceny dobra B.
Dobra substytucyjne mają dodatnią mieszaną elastyczność cenową popytu: jeśli dobro A jest substytutem dobra B, jak kawa i herbata, wówczas wyższa cena dobra B będzie oznaczać większą konsumpcję dobra A. Dobra komplementarne mają z kolei ujemną mieszaną elastyczność cenową: jeśli dobro A jest komplementarne w stosunku do dobra B, tak jak kawa i cukier, to wyższa cena dobra B będzie oznaczać mniejszą konsumpcję dobra A.
### Elastyczność na rynkach pracy i kapitału finansowego
Pojęcie elastyczności ma zastosowanie do wszystkich rynków, nie tylko do tych, na których handluje się dobrami i usługami konsumpcyjnymi. Na przykład na rynku pracy płacowa elastyczność podaży pracy (ang. ) – czyli procentowa zmiana liczby przepracowanych godzin podzielona przez procentową zmianę płacy – będzie odzwierciedlać kształt krzywej podaży pracy. Konkretnie:
Podaż pracy nastoletnich pracowników charakteryzuje się generalnie dość wysoką elastycznością płacową: tzn. dana względna zmiana wynagrodzeń prowadzi do większej względnej zmiany liczby przepracowanych godzin. I odwrotnie, płacowa elastyczność podaży pracy dorosłych pracowników w wieku 30 i 40 lat jest dość niska. Kiedy zarobki rosną lub spadają o określoną wartość wyrażoną w procentach, liczba godzin, które dorośli w sile wieku są skłonni przepracować, zmienia się, ale o względnie mniejszą wartość.
Na rynku kapitału finansowego elastyczność oszczędności (ang. ) – tj. procentowa zmiana wielkości oszczędności podzielona przez procentową zmianę stóp procentowych – opisuje kształt krzywej podaży kapitału finansowego. A zatem:
Czasami rząd proponuje przepisy, które mają na celu zwiększenie wolumenu oszczędności poprzez oferowanie ulg podatkowych, tak aby stopa zwrotu (zarobek) z oszczędności był wyższy. W polskich warunkach oznaczałoby to zwolnienie oszczędności z tzw. podatku Belki. Taka polityka będzie miała stosunkowo duży wpływ na zwiększenie kwoty oszczędności, jeśli krzywa podaży kapitału finansowego jest elastyczna, ponieważ określony względny wzrost stopy zwrotu z oszczędności spowoduje silniejszy wzrost ich wolumenu. Jeśli jednak krzywa podaży kapitału finansowego jest wysoce nieelastyczna, wówczas względny wzrost stopy zwrotu z oszczędności spowoduje tylko niewielkie zwiększenie ich wolumenu. Kształt krzywej podaży kapitału finansowego budzi spory wśród ekonomistów, ale elastyczność oszczędności względem stopy procentowej, przynajmniej w krótkim okresie, jest dość niska.
### Rozszerzenie pojęcia elastyczności
Pojęcie elastyczności wcale nie musi odnosić się tylko do typowej krzywej podaży lub popytu. Wyobraź sobie np., że badasz, czy urząd skarbowy powinien wydawać więcej pieniędzy na kontrolę zeznań podatkowych. Możemy sformułować to pytanie, wykorzystując pojęcie elastyczności, tj. mierząc elastyczność dochodów podatkowych względem wydatków na egzekucję podatkową. Inaczej mówiąc – jaka jest procentowa zmiana wielkości pobieranych podatków wynikająca z danej procentowej zmiany wydatków na egzekucję podatkową.
Przy stosunkowo dużej liczbie różnych rodzajów elastyczności, które zdefiniowaliśmy w niniejszym rozdziale i z których wybrane znajdują się w , pojawia się możliwość pomyłki. Kiedy słyszysz sformułowania „elastyczność popytu” lub „elastyczność podaży”, odnoszą się one do elastyczności względem ceny. Czasami aby formułować myśli maksymalnie precyzyjnie, będziemy nazywać elastyczność popytu cenową elastycznością popytu lub elastycznością popytu względem ceny. Podobnie gdy ekonomiści czasami używają skróconego terminu „elastyczność podaży”, mają na myśli elastyczność cenową podaży lub elastyczność podaży względem ceny. Niezależnie jednak od kontekstu, pojęcie elastyczności zawsze odnosi się do względnej (wyrażonej w procentach) zmiany jednego parametru, prawie zawsze ceny lub zmiennej wyrażonej w kategoriach pieniężnych, oraz będącej efektem tej zmiany względnej zmiany innego parametru, zazwyczaj mierzącego ilość.
### Kluczowe pojęcia i podsumowanie
Elastyczność to koncepcja, która mierzy siłę reakcji dwóch zmiennych. Odnosi się do względnej zmiany jednego parametru podzielonej przez analogiczną zmianę drugiego. Elastyczność możemy wykorzystać przy analizie wielu zależności ekonomicznych. Na przykład elastyczność dochodowa popytu to względna zmiana popytu podzielona przez względną zmianę dochodu. Mieszana elastyczność cenowa popytu to względna zmiana popytu na jedno dobro podzielona przez względną zmianę ceny innego dobra. Podobnie jak na rynkach dóbr i usług, elastyczność ma też zastosowanie na rynkach pracy i kapitału finansowego. Płacowa elastyczność podaży pracy to względna zmiana wielkości podaży pracy podzielona przez analogiczną zmianę płacy. Elastyczność oszczędności względem stopy procentowej to względna zmiana wielkości oszczędności podzielona przez względną zmianę stóp procentowych.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Bibliografia
Abkowitz, A. “How Netflix got started: Netflix founder and CEO Reed Hastings tells Fortune how he got the idea for the DVD-by-mail service that now has more than eight million customers.CNN Money. Last Modified January 28, 2009. http://archive.fortune.com/2009/01/27/news/newsmakers/hastings_netflix.fortune/index.htm.
Associated Press (a). ”Analyst: Coinstar gains from Netflix pricing moves.”Boston Globe Media Partners, LLC. Accessed June 24, 2013. http://www.boston.com/business/articles/2011/10/12/analyst_coinstar_gains_from_netflix_pricing_moves/.
Associated Press (b). “Netflix loses 800,000 US subscribers in tough 3Q.”ABC Inc. Accessed June 24, 2013. http://abclocal.go.com/wpvi/story?section=news/business&id=8403368
Baumgardner, James. 2014. “Presentation on Raising the Excise Tax on Cigarettes: Effects on Health and the Federal Budget.” Congressional Budget Office. Accessed March 27, 2015. http://www.cbo.gov/sites/default/files/45214-ICA_Presentation.pdf.
Funding Universe. 2015. “Netflix, Inc. History.” Accessed March 11, 2015. http://www.fundinguniverse.com/company-histories/netflix-inc-history/.
Laporte, Nicole. “A tale of two Netflix.”Fast Company177 (July 2013) 31-32. Accessed December 3 2013. http://www.fastcompany-digital.com/fastcompany/20130708?pg=33#pg33
Liedtke, Michael, The Associated Press. “Investors bash Netflix stock after slower growth forecast - fee hikes expected to take toll on subscribers most likely to shun costly bundled Net, DVD service.”The Seattle Times. Accessed June 24, 2013 from NewsBank on-line database (Access World News).
Netflix, Inc. 2013. “A Quick Update On Our Streaming Plans And Prices.” Netflix (blog). Accessed March 11, 2015. http://blog.netflix.com/2014/05/a-quick-update-on-our-streaming-plans.html.
Organization for Economic Co-Operation and Development (OECC). n.d. “Average annual hours actually worked per worker.” Accessed March 11, 2015. https://stats.oecd.org/Index.aspx?DataSetCode=ANHRS.
Savitz, Eric. “Netflix Warns DVD Subs Eroding; Q4 View Weak; Losses Ahead; Shrs Plunge.”Forbes.com, 2011. Accessed December 3, 2013. http://www.forbes.com/sites/ericsavitz/2011/10/24/netflix-q3-top-ests-but-shares-hit-by-weak-q4-outlook/.
Statistica.com. 2014. “Coffee Export Volumes Worldwide in November 2014, by Leading Countries (in 60-kilo sacks).” Accessed March 27, 2015. http://www.statista.com/statistics/268135/ranking-of-coffee-exporting-countries/.
Stone, Marcie. “Netflix responds to customers angry with price hike; Netflix stock falls 9%.”News & Politics Examiner, 2011. Clarity Digital Group. Accessed June 24, 2013. http://www.examiner.com/article/netflix-responds-to-customers-angry-with-price-hike-netflix-stock-falls-9.
Weinman, J. (2012). Die hard, hardly dying. Maclean's, 125(18), 44.
The World Bank Group. 2015. “Gross Savings (% of GDP).” Accessed March 11, 2015. http://data.worldbank.org/indicator/NY.GNS.ICTR.ZS.
Yahoo Finance. Retrieved from http://finance.yahoo.com/q?s=NFLX |
# Wybory konsumenta
## Wprowadzenie do rozdziału
Mikroekonomia koncentruje się na zrozumieniu sposobów postępowania poszczególnych podmiotów gospodarczych, takich jak ludzie i przedsiębiorstwa. Ekonomiści uważają, że możemy analizować decyzje jednostek, np. jakie dobra i usługi kupować, jako wybory, których dokonujemy w ramach pewnych ograniczeń budżetowych. Generalnie konsumenci chcą jak najlepiej wykorzystać swój ograniczony budżet. W kategoriach ekonomicznych starają się zmaksymalizować całkowitą użyteczność lub satysfakcję z konsumpcji, biorąc pod uwagę ograniczenia budżetowe.
Każdy ma swoje osobiste gusta i preferencje. Francuzi mawiają: , czyli „Każdy według własnego gustu”. Z kolei stare łacińskie powiedzenie stwierdza: , czyli „O gustach się nie dyskutuje”. Jeśli jednak ludzie opierają swoje decyzje konsumpcyjne na własnych gustach i preferencjach, to w jaki sposób ekonomiści mogą analizować dokonywane przez nich wybory?
Ekonomiczne wyjaśnienie tego, dlaczego ludzie dokonują tak różnych wyborów, zaczyna się od zaakceptowania obiegowej mądrości, zgodnie z którą gusty są kwestią osobistą. Jednak ekonomiści uważają również, że na dokonywane przez ludzi wybory wpływ mają ich dochody, ceny konsumowanych dóbr i usług oraz takie czynniki, jak np. miejsce zamieszkania. Niniejszy rozdział przedstawia ekonomiczną teorię opisującą sposób, w jaki konsumenci dokonują swoich wyborów przy ograniczonych dochodach.
Analiza przedstawiona w tym rozdziale będzie opierać się na koncepcji ograniczenia budżetowego, którą wprowadziliśmy w . Teraz pokażemy również, w jaki sposób – dzięki teorii ekonomii i narzędziom, które wypracowała – przewidzieć reakcje konsumentów na zmiany cen lub dochodów, do których dostosowują oni swoje wybory. Po przeczytaniu tego rozdziału zapoznaj się z , aby dowiedzieć się więcej o prezentowaniu wyborów konsumenta i osiąganego poziomu użyteczności za pomocą krzywych obojętności. |
# Wybory konsumenta
## Wybory konsumpcyjne
Informacje na temat struktury konsumpcji polskich gospodarstw domowych można znaleźć w publikacjach Głównego Urzędu Statystycznego. ilustruje wzorce wydatków przeciętnego gospodarstwa domowego w Polsce w 2021 r. GUS publikuje tutaj dane dotyczące dochodu i wydatków na jedną osobę w gospodarstwie domowym. Pierwszy wiersz przedstawia miesięczny dochód rozporządzalny, czyli już po odjęciu podatków i innych obowiązkowych narzutów na dochody. Wiersz drugi wskazuje, że w 2021 r. przeciętne polskie gospodarstwo domowe składające się z czterech osób wydawało na konsumpcję nieco ponad 5264 zł w ciągu miesiąca. Tabela następnie dzieli konsumpcję na różne kategorie. Wzorce te będą się różnić dla poszczególnych gospodarstw domowych, w zależności od poziomu dochodów rodziny, głównego źródła dochodów (emeryci i renciści, pracujący na własny rachunek, rolnicy itd.), położenia geograficznego i preferencji. Zgodnie z subiektywną oceną sytuacji materialnej gospodarstw domowych w Polsce w 2021 r. (przywołaną przez GUS w tym samym badaniu, s. 14), ponad 53% z nich oceniło swoją sytuację materialną jako „dobą” i „raczej dobrą”, a kolejne 42% – jako „przeciętną”.
### Użyteczność całkowita i malejąca użyteczność krańcowa
Aby zrozumieć sposób dokonywania wyborów przez gospodarstwo domowe, ekonomiści uwzględniają zarówno to, na jakie dobra i usługi konsumentów stać, jak również ich gusta i preferencje, które determinują poziom satysfakcji lub użyteczności całkowitej (ang. ) płynącej z konsumenckich decyzji. Ilustracją ograniczeń nałożonych na decyzje konsumenta przez wysokość dochodu i ceny dóbr jest ograniczenie budżetowe (lub linia budżetu) (ang. lub ). W przypadku linii ograniczenia budżetowego maksymalna możliwa do nabycia ilość jednego dobra zostaje odłożona na osi poziomej, a maksymalna ilość drugiego – na osi pionowej. Linia ograniczenia budżetowego pokazuje różne kombinacje dwóch dóbr, na które konsumenta stać przy danym dochodzie i cenach. Przyjrzyjmy się sytuacji Jana pokazanej na . Jan lubi kolekcjonować i nosić używane koszulki oraz oglądać stare filmy.
przedstawia wykres, na którym liczbę koszulek oznaczono na osi poziomej, a liczbę filmów – na osi pionowej. Gdyby Jan miał nieograniczony dochód lub wspomniane dobra byłyby darmowe, mógłby je nabywać bez ograniczeń. Jednak Jan, jak każdy z nas, napotyka na ograniczenie budżetowe. Na swoje hobby ma do wydania łącznie 56 zł. Cena koszulki wynosi 14 zł, zaś cena filmu 7 zł. Zwróć uwagę, że przecięcie linii ograniczenia budżetowego z osią pionową występuje przy 8 filmach i zerowej liczbie koszulek (56 zł / 7 zł = 8). Punkt przecięcia linii ograniczenia budżetowego z osią poziomą ma wartość 4. To sytuacja, w której Jan wydaje wszystkie swoje pieniądze na koszulki i nie kupuje żadnych filmów (56 zł / 14 zł = 4). Nachylenie linii ograniczenia budżetowego jest równe (–8) / 4 = (–2). Poszczególne punkty wzdłuż linii ograniczenia budżetowego pokazują kombinacje (koszyki) koszulek i filmów, na które Jana stać.
Jan chce wybrać taką kombinację, która zapewni mu największą użyteczność (ang. ). Jest to termin, którego ekonomiści używają do opisania poziomu zadowolenia lub szczęścia danej osoby w konsekwencji jej wyborów konsumpcyjnych.
Zacznijmy od założenia, które omówimy bardziej szczegółowo później: że Jan może zmierzyć swoją użyteczność za pomocą umownej jednostki zadowolenia zwanej utylem. (Ważne jest, aby pamiętać, że nie można porównywać zadowolenia różnych osób. Jeśli jedna osoba uzyskuje 20 utyli w związku z wypiciem filiżanki kawy, a druga tylko 10, nie oznacza to, że ta pierwsza lubi kawę dwa razy bardziej. Utyle są bowiem nie tylko miarą subiektywną, różną dla każdego człowieka. ale przede wszystkim jedynie porządkową (ich wartości pozwalają stwierdzić tylko, który koszyk konsumpcji jest bardziej, a który mniej preferowany przez konsumenta, sama bezwzględna różnica między wartościami nie ma żadnej interpretacji). pokazuje, jak użyteczność Jana jest związana z zakupami (konsumpcją) koszulek lub filmów. Pierwsza kolumna tabeli zawiera liczbę kupowanych koszulek. Druga kolumna przedstawia całkowitą użyteczność lub całkowitą satysfakcję, jaką Jan uzyskuje w związku z zakupem danej liczby koszulek. Typową cechą użyteczności całkowitej w tym przykładzie jest to, że konsumpcja dodatkowych jednostek dobra prowadzi do wzrostu użyteczności całkowitej, ale w coraz wolniejszym tempie. Trzecia kolumna przedstawia użyteczność krańcową (ang. ), czyli dodatkową użyteczność wynikającą ze wzrostu konsumpcji o jednostkę. Wzór na użyteczność krańcową jest następujący:
Zauważmy, że użyteczność krańcowa maleje w miarę kupowania dodatkowych jednostek danego dobra, co oznacza, że każda kolejna konsumowana jednostka zapewnia nabywcy mniejszą dodatkową użyteczność. Na przykład pierwsza koszulka, którą wybrał Jan, jest jego ulubioną i daje mu 22 utyle. Czwarta koszulka jest po prostu czymś do noszenia, gdy wszystkie inne ubrania są w praniu, i daje tylko 18 dodatkowych utyli. Jest to przykład prawa malejącej użyteczności krańcowej (ang. ), zgodnie z którym dodatkowa użyteczność maleje z każdą kolejną nabywaną jednostką. Malejąca użyteczność krańcowa to kolejny przykład bardziej ogólnego prawa malejących przychodów, które omawialiśmy wcześniej w .
Pozostała część przedstawia liczbę filmów, które Jan ogląda, oraz jego całkowitą i krańcową użyteczność związaną z oglądaniem każdego filmu. Całkowita użyteczność zachowuje się zgodnie z oczekiwaną prawidłowością: rośnie wraz ze wzrostem liczby oglądanych przez niego filmów. Krańcowa użyteczność również zachowuje się zgodnie z oczekiwanym wzorcem: każdy dodatkowy film przynosi mu mniejszy przyrost użyteczności niż poprzedni. Jan najbardziej chciał zobaczyć pierwszy film, dzięki czemu zapewnia mu on najwyższy poziom użyteczności lub satysfakcji. Piąty film, który ogląda, to tylko sposób zabicia czasu. Zauważ, że użyteczność całkowita jest również sumą użyteczności krańcowych. Przeczytaj , aby poznać sposób obliczania użyteczności całkowitej.
uwzględnia każdy punkt na linii ograniczenia budżetowego z i sumuje całkowitą użyteczność Jana dla pięciu możliwych kombinacji koszulek i filmów.
Dla Jana najwyższa użyteczność całkowita dla wszystkich możliwych kombinacji dóbr występuje w punkcie S, z całkowitą użytecznością 103, uzyskiwaną z konsumpcji jednej koszulki i sześciu filmów.
### Wybór przy wykorzystaniu użyteczności krańcowej
Większość ludzi podchodzi do swoich wyborów, które maksymalizują użyteczność, krok po kroku. Podejście to opiera się na spojrzeniu na dostępne spektrum wyborów i porównywaniu użyteczności krańcowej związane z konsumowaniem mniejszej ilości jednego, a większej – drugiego dobra.
Powiedzmy np., że Jan zaczyna myśleć o wydaniu wszystkich swoich pieniędzy na koszulki i wybiera punkt P, który odpowiada czterem koszulkom i rezygnacji z filmów, jak pokazuje . Jan wybiera punkt początkowy losowo, ponieważ od czegoś musi zacząć. Następnie rozważa rezygnację z ostatniej koszulki, czyli tej, która zapewnia mu najmniejszą krańcową użyteczność i planuje wykorzystać zaoszczędzone pieniądze na zakup dwóch filmów. śledzi krok po kroku serię decyzji, które może podjąć Jan (Przypomnijmy: koszulka kosztuje 14 zł, film 7 zł, a dochód, który Jan przeznacza na te dwa dobra, wynosi 56 zł). Poniższa sekcja Work It Out wyjaśnia, w jaki sposób użyteczność krańcowa może wpływać na proces podejmowania decyzji.
Jan wyraźnie preferuje punkt Q względem punktu P. Teraz powtórz krok po kroku ten sam proces podejmowania decyzji na podstawie użyteczności krańcowych. Jan zastanawia się nad rezygnacją z trzeciej koszulki i utratą użyteczności krańcowej 20 w zamian za zakup dwóch kolejnych filmów, które dadzą łączną użyteczność krańcową wynoszącą 27. Jan woli punkt R od punktu Q. A jeśli Jan będzie dalej zwiększał konsumpcję filmów kosztem nabywanych koszulek (przejście z punktu R do S)? Rezygnacja z drugiej koszulki oznacza utratę użyteczności krańcowej wynoszącą 21, a piąty i szósty film łącznie dawałyby korzyść w postaci użyteczności krańcowej wynoszącą 23. Tak więc Jan woli punkt S od R.
Jeśli jednak Jan chciałby w dalszym ciągu zwiększać zakupy filmów, zmniejszając liczbę nabywanych koszulek (przejście z S do T), odkryje, że utrata użyteczności krańcowej w związku z rezygnacją z pierwszej koszulki wynosi 22, podczas gdy korzyść związana ze wzrostem użyteczności krańcowej z dwóch ostatnich filmów wynosi tylko 19. Gdyby Jan wybrał punkt T, jego użyteczność spadłaby do 100. Przechodząc przez te etapy myślenia o krańcowych korzyściach i kosztach, Jan ponownie stwierdza, że punkt S, z jedną koszulką i sześcioma filmami, jest wyborem, który zapewni mu najwyższy poziom całkowitej użyteczności. To podejście krok po kroku prowadzi do tego samego wniosku, niezależnie od kombinacji dwóch dóbr, od której Jan zaczynałby swoje rozumowanie.
Możemy opracować bardziej systematyczną metodę korzystania z opisanego wyżej sposobu, koncentrując się na satysfakcji w przeliczeniu na 1 zł. Jeśli przedmiot kosztujący 5 zł daje 10 utyli, to jest wart 2 utyle z każdej wydanej złotówki. Użyteczność krańcowa ze złotego (ang. ) to wartość dodatkowej użyteczności, którą uzyskuje Jan, podzielona przez cenę produktu. pokazuje użyteczność krańcową ze złotego uzyskiwaną przez Jana w związku z zakupami koszulek i filmów.
Jeśli Jan chce zmaksymalizować użyteczność, jaką uzyskuje ze swojego ograniczonego budżetu, zawsze kupi przedmiot o największej użyteczności krańcowej ze złotego swoich wydatków (jeśli może sobie na to pozwolić, biorąc pod uwagę, ile pieniędzy mu jeszcze zostało). Jan zaczyna swoją analizę w momencie, w którym nie ma ani koszulek, ani filmów. Jeśli kupi koszulkę, użyteczność krańcowa z wydanego złotego wyniesie 1,6. Jeśli kupi film, użyteczność krańcowa z wydanego złotego wyniesie 2,3. Dlatego pierwszym zakupem Jana będzie film. Dlaczego? Ponieważ daje mu to największą użyteczność krańcową w przeliczeniu na złotego. Następnie Jan kupi kolejny film. Dlaczego? Ponieważ krańcowa użyteczność następnego filmu (2,14) jest większa niż krańcowa użyteczność kolejnej koszulki (1,6). Zauważ, że kiedy Jan nie ma koszulek, kolejna koszulka jest jego pierwszą. Jan będzie nadal kupował kolejne dobra o najwyższej użyteczności krańcowej ze złotego, dopóki nie wyczerpie swojego budżetu. Będzie kontynuował kupowanie filmów, ponieważ zapewniają mu większą „opłacalność”, aż do szóstego filmu, który daje taką samą krańcową użyteczność ze złotego jak pierwsza zakupiona koszulka. Jan ma akurat wystarczający budżet, aby kupić oba dobra. W sumie Jan kupi sześć filmów i jedną koszulkę.
### Zasada maksymalizacji użyteczności
Powyższy proces podejmowania decyzji sugeruje regułę, której należy przestrzegać przy maksymalizacji użyteczności (ang. ). Ponieważ cena koszulek jest dwa razy większa niż cena filmów to, aby zmaksymalizować użyteczność, ostatnia koszulka, którą wybrał Jan, musi zapewniać dokładnie dwukrotność użyteczności krańcowej (MU) ostatniego filmu. Jeśli ostatnia koszulka przynosi mniej niż dwukrotna użyteczność krańcowa w porównaniu z ostatnim filmem, to koszulka zapewnia mniejszą „opłacalność” (tj. krańcową użyteczność z wydanego złotego), niż uzyskałby Jan, wydając te same pieniądze na filmy. Jeśli tak jest, Jan powinien wymienić koszulkę na więcej filmów, aby zwiększyć swoją użyteczność całkowitą.
Jeśli ostatnia koszulka przynosi ponad dwa razy wyższą użyteczność krańcową niż ostatni film, to koszulka zapewnia większą „opłacalność” lub krańcową użyteczność ze złotego, niż gdyby pieniądze zostały wydane na filmy. W rezultacie Jan powinien kupić więcej koszulek. Zauważ, że przy optymalnym wyborze punktu S przez Jana użyteczność krańcowa pierwszej koszulki, równa 22, jest dokładnie dwukrotnością użyteczności krańcowej szóstego filmu, równej 11. Przy tym wyborze użyteczność krańcowa ze złotego jest taka sama dla obu dóbr. To charakterystyczny sygnał, że Jan znalazł punkt o najwyższej użyteczności całkowitej.
Możemy to zapisać jako ogólną zasadę: Jeśli zawsze wybierasz przedmiot o największej użyteczności krańcowej z wydanego złotego aż do momentu, gdy twój budżet zostanie wyczerpany, to maksymalizacja użyteczności ma miejsce, gdy użyteczność krańcowa na wydanego złotego jest taka sama dla obu dóbr.
Rozsądny podmiot ekonomiczny zapłaci za coś dwa razy więcej tylko wtedy, gdy dany przedmiot zapewni mu dwa razy większą użyteczność niż alternatywny wybór. Zauważ, że wzór dla powyższej tabeli to:
Poniższa pokazuje krok po kroku wybory maksymalizujące użyteczność.
Jest jeszcze jeden, alternatywny sposób rozważania tych zagadnień. Możemy wyrazić ogólną zasadę determinującą sposób postępowania jednostek również następująco: stosunek cen dwóch dóbr powinien być równy stosunkowi użyteczności krańcowych. Kiedy podzielimy cenę pierwszego dobra przez cenę drugiego, w punkcie, w którym użyteczność jest maksymalna, będzie to równe użyteczności krańcowej pierwszego dobra podzielonej przez użyteczność krańcową drugiego.
Wzdłuż linii ograniczenia budżetowego ceny dwóch dóbr pozostają takie same, więc stosunek cen nie zmienia się. Jednak użyteczność krańcowa obu dóbr zmienia się wraz ze zmianami ich nabywanych ilości. Przy optymalnym wyborze jednej koszulki i sześciu filmów (punkt S) stosunek użyteczności krańcowej do ceny dla koszulek (22:14) odpowiada stosunkowi użyteczności krańcowej do ceny dla filmów (11:7).
### Mierzenie użyteczności za pomocą liczb
Nasza dyskusja o użyteczności rozpoczęła się od przyjęcia założenia, że temu parametrowi jesteśmy w stanie przypisać wartości liczbowe, co może się wydawać założeniem wątpliwym. Możesz kupić w supermarkecie termometr okienny do pomiaru temperatury powietrza, ale nie ma sklepu, który sprzedaje utylimetry służące do pomiaru użyteczności. Owszem, mierzenie użyteczności za pomocą wartości liczbowych jest założeniem służącym przejrzystości wywodu, jednak bardziej istotne niż to, czy ktoś może dokładnie zmierzyć swoją użyteczność, jest fakt, że jednostki są w stanie zdecydować, którą z dwóch dostępnych alternatyw preferują.
Aby to zrozumieć, cofnijmy się do analizy procesu stopniowego znajdowania punktu o najwyższej użyteczności całkowitej. Proces ten opiera się na porównaniu użyteczności krańcowej, którą zyskujemy i tracimy w wyniku wyborów różnych koszyków dwóch dóbr leżących wzdłuż linii ograniczenia budżetowego. Gdy Jan porównuje każdą kolejną kombinację leżącą wzdłuż jego ograniczenia budżetowego ze swoim poprzednim wyborem, liczy się nie to, jakie konkretne wartości przypisuje swojej użyteczności – ani czy w ogóle używa jakichś liczb – tylko to, że może osobiście wskazać, które koszyki preferuje.
Tym samym opisany proces wyboru najwyższego poziomu użyteczności „krok po kroku” jest podobny do rzeczywistego sposobu, w jaki ludzie podejmują decyzje konsumpcyjne. Zastanawiamy się, które z możliwych do zakupu dóbr sprawią, że będziemy najszczęśliwsi. Myślimy, ile te rzeczy kosztują. Zastanawiamy się nad zakupem trochę większej ilości jednego produktu i rezygnacją z czegoś innego. Wybieramy to, co daje nam największą satysfakcję. Porównywanie koszyków dóbr leżących wzdłuż linii ograniczenia budżetowego oraz użyteczność całkowita i krańcowa to tylko zestaw narzędzi do analizy tego codziennego procesu. To dobra wiadomość, że konkretne wartości użyteczności nie mają kluczowego znaczenia, ponieważ trudno jest znaleźć dobry utylimetr. Nie martwmy się tym jednak – chociaż nie możemy dokładnie zmierzyć użyteczności związanej z konkretnymi wyborami, pod koniec następnego modułu przekształcimy naszą analizę w coś, co możemy zmierzyć – popyt.
### Kluczowe pojęcia i podsumowanie
Analiza ekonomiczna zachowań gospodarstw domowych opiera się na założeniu, że konsumenci poszukują najwyższego poziomu użyteczności lub satysfakcji. Ludzie są jedynym sędzią własnej użyteczności. Ogólnie rzecz biorąc, większa konsumpcja dobra oznacza większą użyteczność całkowitą. Jednak dodatkowa użyteczność, jaką ludzie pozyskują z każdej dodatkowo konsumowanej jednostki, ma tendencję do zmniejszania się, zgodnie z zasadą malejącej użyteczności krańcowej.
Koszyk maksymalizujący użyteczność przy uwzględnieniu ograniczenia budżetowego można znaleźć na kilka sposobów. Można zsumować całkowitą użyteczność każdej kombinacji leżącej na linii budżetowej i wybrać tę, która reprezentuje najwyższą wartość. Można losowo wybrać punkt początkowy i porównać krańcowe korzyści i straty użyteczności wynikające z przejścia do sąsiednich punktów – i w ten sposób ostatecznie wybrać preferowany koszyk. Jednak najlepszym i najszybszym sposobem identyfikacji koszyka maksymalizującego łączną użyteczność z konsumpcji jest porównanie stosunku użyteczności krańcowej do ceny dla pierwszego dobra ze stosunkiem użyteczności krańcowej do ceny dla drugiego dobra. Przy optymalnym wyborze te dwie relacje powinny być sobie równe.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Problemy
### Bibliografia
GUS, Sytuacja gospodarstw domowych w 2020 r. w świetle badania budżetów gospodarstw domowych, link do raportu https://stat.gov.pl/obszary-tematyczne/warunki-zycia/dochody-wydatki-i-warunki-zycia-ludnosci/sytuacja-gospodarstw-domowych-w-2020-r-w-swietle-badania-budzetow-gospodarstw-domowych,3,20.html
U.S. Bureau of Labor Statistics. 2015. “Consumer Expenditures in 2013.” Accessed March 11, 2015. http://www.bls.gov/cex/csxann13.pdf.
U.S. Bureau of Labor Statistics. 2015. “Employer Costs for Employee Compensation—December 2014.” Accessed March 11, 2015. http://www.bls.gov/news.release/pdf/ecec.pdf.
U.S. Bureau of Labor Statistics. 2015. “Labor Force Statistics from the Current Population Survey.” Accessed March 11, 2015. http://www.bls.gov/cps/cpsaat22.htm. |
# Wybory konsumenta
## Jak zmiany dochodów wpływają na wybory konsumentów
Koncepcje użyteczności całkowitej i krańcowej, używane przez nas dotąd do omawiania wyborów konsumenckich dokonywanych przy ograniczeniu budżetowym, możemy wykorzystać również do rozpatrzenia, jak zmieniają się wybory konsumenta, gdy ograniczenie budżetowe przesuwa się w odpowiedzi na zmiany dochodu lub cen. Ponieważ możemy użyć ograniczenia budżetowego do analizy tego, jak zmienia się wielkość zapotrzebowania pod wpływem zmian cen, model ograniczenia budżetowego może zilustrować logikę leżącą u podstaw tworzenia krzywych popytu.
### Wpływ zmiany dochodów na wybory konsumentów
Zacznijmy od konkretnego przykładu pokazującego, jak zmiany poziomu dochodów wpływają na wybory konsumentów. przedstawia ograniczenie budżetowe (ang. ), które reprezentuje wybór Karoliny między biletami na koncert w cenie 50 zł za sztukę a noclegami w hotelu po 200 zł za noc. Karolina ma 1000 zł rocznie do wydania na te dwie przyjemności. Po przeanalizowaniu jej użyteczności całkowitej i krańcowej oraz zastosowaniu reguły decyzyjnej, zgodnie z którą stosunek użyteczności krańcowych do cen powinien być taki sam dla obu dóbr, Karolina wybiera punkt M z ośmioma koncertami i trzema noclegami jako kombinacją maksymalizującą jej użyteczność.
Załóżmy teraz, że dochód Karoliny do wydania na te dwa dobra wzrasta do 2000 zł rocznie, powodując przesunięcie jej ograniczenia budżetowego w prawo. Jak wzrost dochodów zmienia jej wybór maksymalizujący użyteczność? Karolina ponownie weźmie pod uwagę użyteczność całkowitą i krańcową, jaką uzyskuje z biletów na koncert i noclegów, i poszuka swojego wyboru maksymalizującego użyteczność (ang. ) na nowej linii budżetowej. Ale jaka będzie relacja jej nowego wyboru do poprzedniego?
Możemy podzielić możliwe wybory wzdłuż nowego ograniczenia budżetowego na trzy grupy, których granice wskazują przerywane linie poziome i pionowe, przechodzące przez początkowy punkt równowagi (M). Wszystkie koszyki w lewym górnym rogu nowego ograniczenia budżetowego, znajdujące się na lewo od pionowej linii przerywanej, takie jak punkt P z dwoma noclegami i 32 biletami na koncert, uwzględniają mniej jednostek dobra z osi poziomej, ale znacznie więcej jednostek dobra z osi pionowej. Wszystkie koszyki na prawo od pionowej linii przerywanej i powyżej poziomej linii przerywanej – takie jak punkt N z pięcioma noclegami i 20 biletami na koncert – charakteryzują się większą konsumpcją obu dóbr. Wreszcie, wszystkie koszyki znajdujące się na prawo od pionowej linii przerywanej, ale poniżej poziomej linii przerywanej, takie jak punkt Q z czterema koncertami i dziewięcioma noclegami, uwzględniają mniej dobra z osi pionowej, ale znacznie więcej dobra z osi poziomej.
Wszystkie te wybory są teoretycznie możliwe w zależności od osobistych preferencji Karoliny wyrażonych przez całkowitą i krańcową użyteczność, jaką otrzymałaby z konsumpcji obu dóbr. Gdy dochód rośnie, najczęstszą reakcją jest zakup większej ilości obu dóbr, np. punkt N, który znajduje się w prawym górnym rogu w stosunku do pierwotnego wyboru M, chociaż skala przyrostu konsumpcji danego dobra będzie się różnić w zależności od osobistych upodobań. I odwrotnie, gdy dochód maleje, najbardziej typową reakcją jest kupowanie mniejszej ilości obu dóbr. Jak zdefiniowaliśmy w oraz ponownie w , dobra i usługi nazywamy dobrami normalnymi (ang. ), gdy wzrost dochodu prowadzi do wzrostu ilości konsumowanego dobra, a spadek dochodu prowadzi do spadku konsumowanej ilości.
Jednak, w zależności od preferencji Karoliny, wzrost dochodu może powodować wzrost konsumpcji jednego dobra, a spadek konsumpcji drugiego. Wybór taki jak P oznacza, że wzrost dochodu spowodował spadek liczby noclegów, podczas gdy w punkcie Q wzrost dochodu powoduje zmniejszenie liczby koncertów. Tak jak to już wskazaliśmy w dobra, na które popyt maleje wraz ze wzrostem dochodu (lub odwrotnie – popyt rośnie wraz ze spadkiem dochodu), nazywane są dobrami niższego rzędu. Przypomnijmy, że dobra niższego rzędu (ang. ) to takie, których konsumpcję ludzie zmniejszają wraz ze wzrostem dochodów, gdy już mogą sobie pozwolić na preferowane produkty droższe i lepsze. Na przykład gospodarstwo domowe o wyższych dochodach może zmniejszyć konsumpcję hamburgerów lub mniej chętnie kupować używane samochody, a zamiast tego jeść więcej steków i nabyć nowe auto.
### Jak zmiany cen wpływają na wybory konsumentów
Aby przeanalizować możliwy wpływ zmiany ceny na konsumpcję, ponownie posłużmy się konkretnym przykładem. przedstawia sytuację Sebastiana, który dokonuje wyboru między zakupem kijów bejsbolowych bejsbolowych a zakupem aparatów fotograficznych. Podwyżka cen kijów bejsbolowych nie ma wpływu na możliwości zakupu aparatów, ale zmniejsza liczbę kijów, na które Sebastian może sobie pozwolić. Tak więc wzrost ceny kijów bejsbolowych, tj. dobra na osi poziomej, powoduje, że linia ograniczenia budżetowego obraca się do wewnątrz, czyli wokół punktu przecięcia z osią pionową. Podobnie jak w poprzedniej części, punkt M reprezentuje pierwotnie preferowany koszyk na początkowym ograniczeniu budżetowym, wybrany przez Sebastiana na podstawie jego użyteczności całkowitej i krańcowej oraz limitów wynikających z wysokości dochodu. W niniejszym przykładzie na osi poziomej i pionowej nie są zaznaczone jednostki liczbowe, więc dyskusja musi koncentrować się na ogólnym stwierdzeniu, czy Sebastian będzie konsumował mniej, czy więcej danego dobra, a nie na wartościach liczbowych.
Po wzroście ceny Sebastian dokonuje wyboru zgodnie z nowym ograniczeniem budżetowym. Ponownie możemy podzielić jego wybory na trzy segmenty, wyznaczone przerywanymi liniami pionowymi i poziomymi. W górnej lewej części nowego ograniczenia budżetowego, w punkcie H, Sebastian kupuje więcej aparatów fotograficznych i mniej kijów bejsbolowych. W centralnej części nowego ograniczenia budżetowego, przy wyborze J, konsumuje mniejsze ilości obu dóbr. Na prawym końcu, przy koszyku L, kupuje więcej kijów, ale mniej aparatów.
Typową odpowiedzią na wzrost ceny jest zmniejszenie konsumpcji dobra, które zdrożało. Dzieje się tak z dwóch powodów i oba mogą zachodzić jednocześnie. Efekt substytucyjny (ang. ) występuje, gdy cena się zmienia i konsumenci mają motywację do konsumowania mniejszej ilości dobra o relatywnie wyższej cenie, a większej ilości dobra o relatywnie niższej cenie. Efekt dochodowy (ang. ) polega na tym, że wyższa cena oznacza w efekcie zmniejszoną siłę nabywczą dochodu (chociaż nominalny dochód się nie zmienia), co prowadzi do zakupu mniejszej ilości dobra (w przypadku dobra normalnego). W naszym przykładzie wyższa cena kijów bejsbolowych sprawia, że Sebastian kupuje mniej kijów z obu powodów. Jak silnie wzrost ceny kijów zmniejszy ich konsumpcję? sugeruje szereg możliwości. Sebastian może zareagować na wyższą cenę kijów bejsbolowych, kupując taką samą liczbę kijów, a mniejszą – aparatów fotograficznych. Wówczas nowym wyborem będzie punkt K na nowym ograniczeniu budżetowym, tuż poniżej pierwotnego punktu M. Alternatywnie Sebastian może zareagować, radykalnie ograniczając zakupy kijów i zamiast tego kupować więcej aparatów.
Istotą analizy jest to, że nieroztropnie byłoby zakładać, iż zmiana ceny jednego dobra wpłynie WYŁĄCZNIE na jego konsumpcję. W naszym przykładzie, ponieważ Sebastian kupuje wszystkie produkty z tego samego budżetu, zmiana ceny kijów bejsbolowych może również wywołać efekt – pozytywny lub negatywny – zmiany jego zapotrzebowania na aparaty fotograficzne. A zatem zmiana ceny jednego dobra może wpłynąć, pozytywnie lub negatywnie, na wielkość konsumpcji wszystkich wybieranych dóbr.
Krótko mówiąc, wyższa cena zazwyczaj powoduje zmniejszenie konsumpcji danego dobra, ale może również wpływać na konsumpcję innych dóbr.
### Podstawy krzywych popytu
Zmiana ceny dobra prowadzi do obrócenia się linii ograniczenia budżetowego. Obrót linii budżetu oznacza, że konsument chcąc osiągnąć najwyższą użyteczność, zmieni wielkość zapotrzebowania na dane dobro. W ten sposób logiczne podstawy prawa popytu – odzwierciedlające związek między cenami a wielkością zapotrzebowania – opierają się na działaniu jednostek dążących do maksymalizacji swojej użyteczności. (a) pokazuje ograniczenie budżetowe z wyborem między mieszkaniami a pozostałymi dobrami i usługami. (Umieszczenie pozostałych dóbr i usług na osi pionowej może być przydatnym podejściem w niektórych przypadkach, zwłaszcza gdy analiza koncentruje się na jednym konkretnym dobru). Preferowany wybór, który zapewnia najwyższą możliwą użyteczność na początkowej linii ograniczenia budżetowego, oznaczamy przez M0. Pozostałe trzy ograniczenia budżetowe reprezentują sukcesywnie wyższe ceny mieszkań – odpowiednio P1, P2 i P3. W miarę jak linia ograniczenia budżetowego obraca się w kierunku osi pionowej, wybory maksymalizujące użyteczność oznaczamy jako M1, M2 i M3, a wielkość zapotrzebowania na mieszkania spada z Q0 do Q1, Q2 i Q3.
Tak więc gdy cena mieszkań rośnie, linia ograniczenia budżetowego obraca się zgodnie z ruchem wskazówek zegara, a wielkość konsumpcji mieszkań spada, ceteris paribus. Zależność ta – spadek wielkości zapotrzebowania na mieszkania z Q0 do Q1, Q2 i Q3 przy wzroście ceny mieszkań z P0 do P1, P2 i P3 – jest przedstawiona na krzywej popytu na (b). Pionowe linie przerywane ciągnące się między górnym i dolnym panelem pokazują, że wielkość zapotrzebowania na mieszkania w poszczególnych punktach jest taka sama. Ostatecznie określamy kształt krzywej popytu na podstawie wyborów maksymalizujących użyteczność przy ograniczeniu budżetowym. Chociaż ekonomiści mogą nie być w stanie zmierzyć utyli, z pewnością mogą zmierzyć cenę i wielkość popytu.
### Zastosowania w polityce państwa i biznesie
Koncepcja ograniczenia budżetowego służąca do dokonywania wyborów maksymalizujących użyteczność pokazuje, że ludzie mogą reagować na zmianę ceny lub dochodu na wiele różnych sposobów. Na przykład w IV kwartale 2021 r. i pierwszym kwartale roku 2022 ceny energii elektrycznej i gazu w Polsce znacznie wzrosły. Niektórzy ludzie zareagowali na tę sytuację zmniejszeniem zapotrzebowania na energię, np. przykręcając termostaty w swoich domach o kilka stopni i zakładając grubszy dres. Mimo to wiele rachunków za ogrzewanie domów wzrosło, więc ludzie dostosowali swoją konsumpcję również w inny sposób. Jak wiemy z , krótkookresowy popyt na ogrzewanie domu jest generalnie nieelastyczny. A zatem wiele gospodarstw domowych ograniczyło również wydatki na inne produkty, z których najłatwiej było im zrezygnować. Dla części z nich mógł to być obiad zjedzony poza domem, dla innych wakacje albo odłożenie w czasie zakupu nowej lodówki czy samochodu. Znacznie wyższe ceny gazu i prądu mogą mieć skutki wykraczające poza rynek energii, prowadząc do powszechnego zmniejszenia zakupów w pozostałych gałęziach gospodarki.
Podobny problem pojawia się, gdy rząd nakłada podatki na niektóre produkty, takie jak benzyna, papierosy i alkohol. Powiedzmy, że podatek od alkoholu prowadzi do wyższej ceny w sklepie monopolowym. Wyższa cena alkoholu powoduje, że ograniczenie budżetowe obraca się w lewo, a spożycie napojów alkoholowych prawdopodobnie spadnie. Jednak ludzie mogą również zareagować na wyższą cenę napojów alkoholowych, ograniczając inne zakupy. Mogą np. zmniejszyć konsumpcję przekąsek w restauracjach, takich jak skrzydełka z kurczaka i frytki. Nierozsądne byłoby zakładanie, że podatek od napojów alkoholowych wpłynie wyłącznie na przemysł alkoholowy.
### Model maksymalizacji użyteczności przy ograniczeniu budżetowym i jego zdolność do objaśniania rzeczywistości
Interakcje między cenami, ograniczeniem budżetowym i osobistymi preferencjami determinują wybory gospodarstwa domowego. Elastyczna i użyteczna terminologia maksymalizacji użyteczności daje ekonomistom słownictwo umożliwiające połączenie tych elementów. Jednak nawet ekonomiści nie zakładają, że ludzie chodzą w kółko przed sklepem, bankiem lub siedzibą pracodawcy, myśląc o swoich użytecznościach krańcowych, zanim wejdą do środka, podejmą pracę lub złożą depozyt na koncie oszczędnościowym. Ekonomiści są przekonani, że ludzie szukają satysfakcji lub użyteczności i często decydują się na niewielkie ograniczenie konsumpcji jednych dóbr, by zwiększyć nieznacznie konsumpcję innych. Jeśli akceptujemy te założenia, wówczas idea maksymalizujących użyteczność gospodarstw domowych stojących w obliczu ograniczeń budżetowych staje się bardzo bliska rzeczywistości.
Koncepcja ograniczenia budżetowego przypomina nam o wielu możliwych konsekwencjach zmian dochodów lub cen, a nie tylko o tych, które determinują zapotrzebowanie na jeden, konkretny produkt, co może wydawać się najbardziej oczywistym rodzajem oddziaływania.
### Kluczowe pojęcia i podsumowanie
Koncepcja ograniczenia budżetowego sugeruje, że w przypadku zmiany dochodu lub cen możliwe są różne reakcje. Gdy dochód rośnie, jednostki będą zgłaszać zapotrzebowanie na większą ilość dóbr normalnych, ale mniejszą ilość dóbr niższego rzędu. Gdy cena dobra rośnie, gospodarstwa domowe zazwyczaj będą zgłaszać zapotrzebowanie na mniejszą ilość tego dobra – ale to, czy zechcą znacznie mniejszej, czy tylko nieco mniejszej ilości, zależy od osobistych preferencji. Ponadto wyższa cena jednego dobra może prowadzić do wzrostu lub spadku popytu na inne dobro.
### Pytania Self–Check
### Pytania Review
### Pytania Critical Thinking
### Zadania
|
# Wybory konsumenta
## Ekonomia behawioralna: inne podejście do wyborów konsumenckich
Jak wiemy, ludzie czasami podejmują decyzje, które na pierwszy rzut oka wyglądają na irracjonalne, niezgodne z ich własnym, najlepiej pojętym interesem. Niektóre osoby wydają się wręcz celowo ignorować dostępne sposoby oszczędzania pieniędzy lub czasu. Tradycyjne modele ekonomiczne zakładają racjonalność podmiotów ekonomicznych, co oznacza, że teoretycznie ludzie powinni wykorzystywać wszystkie dostępne informacje oraz podejmować spójne i świadome decyzje, które leżą w ich najlepszym interesie. W rzeczywistości wykładowcy ekonomii często z satysfakcją zwracają swoim nowym studentom uwagę na tzw. nieracjonalne zachowania i przedstawiają ekonomię jako sposób na bardziej racjonalne podejście do procesu podejmowania decyzji.
Jedna z nowych szkół ekonomicznych, znana jako ekonomia behawioralna (ang. ), twierdzi jednak, że tradycyjna metoda pomija pewien kluczowy element: nastawienie ludzi podejmujących decyzje. Na przykład o pieniądzach i związanych z nimi wyborach można myśleć w bardzo różny sposób, jeśli odczuwa się chęć zemsty, ma się poczucie straty albo negatywne podejście do życia. Tego typu uczucia nie są irracjonalne, to po prostu emocje wpływające na nasze codzienne wybory. Ponadto wybory dokonywane pod wpływem różnego rodzaju emocji można zrozumieć, jeśli zrozumie się środowisko, w którym funkcjonują ludzie podejmujący decyzje. Ekonomia behawioralna stara się rozszerzyć nasz sposób analizy procesu decyzyjnego poprzez włączenie do ekonomii elementów psychologii. Głównym narzędziem ekonomistów behawioralnych jest badanie, w jaki sposób określone kwoty pieniężne mogą być postrzegane przez jednostki w zależności od sytuacji, w której ludzie ci się znajdują. Postronny obserwator, który nie jest wyposażony w odpowiedni aparat analityczny, może uznać ich decyzje za niezrozumiałe.
Sposób, w jaki funkcjonuje ludzki umysł, może wydawać się tradycyjnym ekonomistom niespójny, jednak w rzeczywistości jest o wiele bardziej złożony niż pozbawiona emocji maszyna porównująca koszty i korzyści. Tradycyjny ekonomista powie, że jeśli twój banknot dziesięciozłotowy gdzieś się zapodział, ale jednocześnie dysponujesz dodatkową wypłatą w wysokości 10 zł, to twój nastrój nie powinien się zmienić. W końcu (–10 zł) + 10 zł = 0 zł. Twoja sytuacja finansowa nie uległa zmianie. Jednak ekonomiści behawioralni przeprowadzili badania, które pokazują, że w podobnych okolicznościach wiele osób odczuwa negatywne emocje, takie jak gniew lub frustracja. Mamy bowiem tendencję do skupiania się bardziej na stratach niż na zyskach. Nazywamy to niechęcią (awersją) do strat (ang. ). Zgodnie z wynikami badań przeprowadzonych przez Daniela Kahnemana i Amosa Tversky'ego, które opublikowano w 1979 r. w czasopiśmie Econometrica, strata 1 dol. dotyka ludzi 2,25 razy bardziej niż cieszy 1 dol. zysku. Ta zależność będzie miała daleko idące konsekwencje, np. dla sposobu funkcjonowania rynku kapitałowego, ponieważ inwestorzy będą znacznie silniej reagować na straty niż na zyski. Takie zachowanie wydaje się irracjonalne dla tradycyjnych ekonomistów, ale według ekonomistów behawioralnych jest spójne.
Tradycyjni ekonomiści zakładają również, że ludzie mogą w pełni kontrolować swoje zachowanie. Jednak stoi to w sprzeczności z postępowaniem przynajmniej części z nas, o ile np. kupujemy papierosy w paczkach, a nie w kartonach (choć oznacza to, że za jednego papierosa płacimy więcej), wierząc, że w ten sposób ograniczymy palenie. Ktoś inny z kolei kupuje zamek do lodówki i nadpłaca podatki, aby w ten sposób zmusić się do ograniczenia jedzenia lub do oszczędzania. Innymi słowy, chronimy się przed najgorszymi pokusami, ale nie siłą naszej woli (co nie wiązałoby się z żadnym kosztem), tylko płacimy za to określoną, wcale niemałą, cenę. Ekonomiści behawioralni proponują rozwiązanie tego typu problemów (co pozwoli uniknąć przynajmniej części zachowań, które w ewidentny sposób nam szkodzą), ale raczej przez tworzenie bodźców skłaniających do racjonalnego zachowania, a nie przez obowiązkowe prawne regulacje. Na przykład niemal 20% nowych pracowników w USA nie zapisuje się od razu po rozpoczęciu pracy do programów emerytalnych, gdyż nie chcą myśleć o bardzo – przynajmniej z ich perspektywy – odległej przyszłości lub po prostu czują się przytłoczeni liczbą możliwych wyborów w tym zakresie. Aby zmniejszyć dolegliwość tego problemu, niektóre przedsiębiorstwa tworzą system, w którym nowy pracownik jest automatycznie zapisywany do systemu emerytalnego wybranego przez pracodawcę. Zatrudnionym pozostawiono oczywiście prawo zmiany systemu, ale korzysta z niego tylko niewielka grupa nowych pracowników. Dzięki temu młodzi ludzie zaczynają odkładać środki na emeryturę niemal od razu po rozpoczęciu pracy, co jest kluczowe dla wysokości ich przyszłego świadczenia.
Innym obszarem podejmowania decyzji, który na pierwszy rzut oka wydaje się pozbawiony logiki, jest idea księgowania umysłowego lub przypisywanie pieniądzom różnych kategorii mentalnych, w kontekście których przyjmują one różną wartość. Ekonomiści zazwyczaj uważają, że pieniądze są wymienialne (ang. ) lub mają taką samą wartość dla osoby, niezależnie od sposobu ich pozyskania.
Możesz np. pomyśleć o 30 zł znalezionych na ulicy inaczej niż o 30 zł zarobionych przez godzinę pracy w barze szybkiej obsługi. Możesz traktować znalezione środki jako „szalone pieniądze”, w związku z czym nie będziesz dążyć do maksymalizowania ich użyteczności i postanowisz wydać je na głupstwa, np. kupisz za nie los na loterii lub kupon LOTTO. Do pewnego stopnia może się to wydawać dziwne, ponieważ te 30 zł dalej odpowiada godzinie twojej ciężkiej pracy. Jednak podejście „łatwo przyszło – łatwo poszło” zastępuje racjonalne myślenie ekonomiczne ze względu na sytuację lub kontekst, w którym zdobyło się pieniądze.
A oto inny przykład związany z umysłową księgowością, który tradycyjnemu ekonomiście, zakładającemu racjonalne postępowanie, z pewnością wyda się niespójny. Ktoś może mieć dług na karcie kredytowej w wysokości 1000 zł (przy czym roczny koszt odsetek od tego zobowiązania to 15%), a zarazem posiadać 2000 zł na koncie oszczędnościowym, które przynosi tylko 2% rocznie w postaci odsetek. Oznacza to, że osoba ta płaci 150 zł rocznie wystawcy karty kredytowej, a jednocześnie pobiera tylko 40 zł rocznie tytułem odsetek bankowych od depozytu. Traci zatem 110 zł rocznie, co nie wydaje się rozsądne.
„Racjonalną” decyzją byłaby spłata długu, ponieważ 1000 zł na koncie oszczędnościowym przy braku długu jest kwotą równoważną i przynosi dodatkowo 20 zł rocznie w postaci odsetek. Jednak często zdarza się, że ludzie ignorują ten sposób postępowania, ponieważ stratę na koncie oszczędnościowym wyceniają wyżej niż korzyść ze spłaty karty kredytowej. Nie traktują pieniędzy w kategoriach w pełni wymienialnych, co tradycyjni ekonomiści uznają za irracjonalne.
Które podejście jest słuszne – ekonomistów behawioralnych czy tradycyjnych? Oba sposoby analizy rzeczywistości mają swoje zalety, ale ekonomistom behawioralnym trzeba oddać, że zidentyfikowali różne rodzaje zachowań, które ekonomiści tradycyjni traktowali wcześniej jako nieracjonalne, spróbowali je przeanalizować i wskazać powody ich występowania. Jeśli większość z nas jest zaangażowana w jakieś „irracjonalne zachowanie”, być może istnieją ku temu jakieś głębsze przyczyny. Warto zdawać sobie z nich sprawę i spróbować wyeliminować przynajmniej część z nich.
### Kluczowe pojęcia i podsumowanie
Ludzie regularnie podejmują decyzje, które wydają się nieracjonalne, czyli sprzeczne z tradycyjną teorią konsumenta. Dzieje się tak, ponieważ tradycyjna teoria ignoruje stan umysłu lub uczucia ludzi, które silnie wpływają na ich zachowanie. Na przykład skłonni są oni przywiązywać znacznie większą wartość do jednostki pieniężnej (złotego, dolara lub euro) straconej niż zyskanej, mimo że kwoty są takie same. Podobnie wiele osób odkłada roczne rozliczenie podatków aż do ostatniej chwili, nawet gdy mogą być pewni otrzymania zwrotu nadpłaconej kwoty, udzielając w ten sposób rządowi darmowej pożyczki.
### Bibliografia
Holden, Sarah, and Daniel Schrass. 2012. “The rose of IRAs in U.S Households’ Saving for Retirement, 2012.” ICI Research Perspective 18.8 (2012). http://www.ici.org/pdf/per18-08.pdf.
Kahneman, Daniel and Amos Tversky. “Prospect Theory: An Analysis of Decision under Risk.” Econometrica 47.2 (March 1979) 263-291.
Thaler, Richard H. “Shifting Our Retirement Savings into Automatic.” The New York Times, April 6, 2013. http://www.nytimes.com/2013/04/07/business/an-automatic-solution-for-the-retirement-savings-problem.html?pagewanted=all.
UNESCO Institute for Statistics. “Statistics in Brief / Profiles” Accessed August 2013. http://stats.uis.unesco.org/unesco/TableViewer/document.aspx?ReportId=121 &IF_Language=en&BR_Country=5580. |
# Teoria podaży, kosztów i struktur rynku
## Wprowadzenie do rozdziału
Niniejszy rozdział jest pierwszym z czterech, w których przedstawiona jest teoria przedsiębiorstwa. Wyjaśnia ona, jak firmy działają i co to znaczy. Zdefiniujmy najpierw, co rozumiemy przez przedsiębiorstwo. Przedsiębiorstwo (producent, firma) (ang. ) to wydzielona prawnie jednostka organizacyjna łącząca nakłady pracy, kapitału, ziemi oraz surowców lub półproduktów, aby wytworzyć dobra i usługi, które zostaną następnie sprzedane na rynku. Jeśli przedsiębiorstwo jest dochodowe (przynosi zyski), wyroby gotowe mają większą wartość niż poniesione nakłady. Musimy pamiętać, że produkcja to coś więcej niż tylko wytwarzanie dóbr. To także każdy proces lub usługa, które tworzą wartość, w tym transport, dystrybucja, sprzedaż hurtowa i detaliczna.
W ramach organizowania procesów produkcyjnych przedsiębiorstwo (a dokładniej jego kierownictwo) musi podejmować szereg ważnych decyzji, m.in.:
1.
Jaki produkt lub produkty powinno wytwarzać przedsiębiorstwo.
2.
W jaki sposób przedsiębiorstwo powinno produkować sprzedawane dobra lub usługi (jakie metody produkcji powinno wykorzystywać).
3.
Ile pracy i kapitału przedsiębiorstwo powinno zatrudnić.
4.
Jaka powinna być wielkość produkcji.
5.
Jaką cenę przedsiębiorstwo powinno pobierać za wytworzone produkty.
Odpowiedzi na te pytania zależą od metod produkcji i kosztów, z jakimi ma do czynienia każde przedsiębiorstwo. I to właśnie jest tematem niniejszego rozdziału. Odpowiedzi zależą również od struktury rynku, na którym przedsiębiorstwa sprzedają swoje dobra i usługi. Struktury rynku (lub inaczej struktury konkurencji) to wielowymiarowe modele opisujące sposób konkurowania firm sprzedających te same lub podobne produkty. Poszczególne struktury rynku można odróżnić, odpowiadając na następujące pytania:
1.
Jaką siłę rynkową posiada każde przedsiębiorstwo w branży, czyli jaką swobodą dysponuje, kształtując cenę swojego produktu?
2.
Czy sprzedawane w danej gałęzi produkty są identyczne (homogeniczne), czy jednak różną się znacząco?
3.
Jak wysokie są koszty rozpoczęcia i zakończenia działalności w danej gałęzi, czyli jakie są bariery wejścia i wyjścia?
4.
Jak wielu jest sprzedawców w danej branży?
pokazuje najważniejsze cechy różnych struktur rynku, które będziemy analizować w , oraz .
Najpierw przeanalizujemy to, w jaki sposób przedsiębiorstwa określają swoje koszty i oczekiwane zyski. Następnie omówimy źródła kosztów, zarówno w krótkim, jak i długim okresie. Zacznijmy jednak od tego, w jaki sposób można organizować działalność przedsiębiorstwa. Gospodarkę polską, podobnie zresztą jak amerykańską, charakteryzuje prywatna przedsiębiorczość oparta na prywatnej własności środków produkcji, jednak zarówno w gospodarce polskiej, jak i w amerykańskiej istnieją przedsiębiorstwa będące własnością publiczną (państwową lub komunalną). Prywatne przedsiębiorstwa mogą zostać zorganizowane w formie firm jednoosobowych (ang. ) i spółek, zarówno takich, w których odpowiedzialność współwłaścicieli jest nieograniczona, wówczas noszą one nazwę spółek jawnych (ang. ), jak i ograniczona (ang. ). Mówimy wówczas o spółkach kapitałowych, które dzielą się na spółki z ograniczoną odpowiedzialnością (ang. ) i spółki akcyjne (ang. ).
### Organizacja przedsiębiorstwa
Gdy myślimy o przedsiębiorstwach, często przychodzą nam na myśl korporacyjni giganci tacy jak Wal-Mart, Orlen, Microsoft czy Fiat. Jednak przedsiębiorstwa mają różne wielkości, co przedstawia . Zgodnie z danymi GUS na koniec września 2020 r. liczba podmiotów prowadzących działalność gospodarczą w Polsce przekraczała 4,1 mln. Nie oznacza to oczywiście, że w Polsce było wówczas aktywnych aż tyle firm. W statystykach GUS znajdują się bowiem podmioty, które zawiesiły wykonywanie działalności, podmioty, które zakończyły działalność, lecz informacja o tym fakcie nie dotarła do GUS, oraz podmioty, które nie są przedsiębiorstwami (fundacje, stowarzyszenia), ale prowadzą działalność gospodarczą. Z kolei wykorzystując dane Zakładu Ubezpieczeń Społecznych z tego samego okresu, liczbę podmiotów opłacających składki ubezpieczeniowe lub zdrowotne w ZUS można oszacować na 2,6 mln. W tej liczbie 120 tys. to podmioty sektora publicznego: urzędy, szkoły, domy dziecka itp. Z danych ZUS wynika również, iż tylko niespełna 900 tys. podmiotów zatrudnia pracowników (w tym podmioty sektora publicznego). 1,7 mln. to tzw. samozatrudnieni, czyli przedsiębiorcy odprowadzający składki za samych siebie. Niezależnie zatem od źródła danych, wniosek będzie taki sam: największa grupa polskich przedsiębiorstw to firmy jednoosobowe.
Firmy jednoosobowe stanowią przedsiębiorstwa należące do jednego właściciela. Ma on prawo do całości dochodów, lecz ponosi również pełną odpowiedzialność za ewentualne straty. Każdy z nas może otworzyć punkt ksero, wynajmując lokal, maszyny biurowe oraz personel do obsługi klientów. Całość zysków przypada właścicielowi, ale w przypadku pojawienia się systematycznych strat musi on ogłosić bankructwo. Oznaczać to będzie, że straty będzie musiał pokryć, wykorzystując również osobisty majątek, taki jak dom, samochód czy sprzęt elektroniczny, które zostaną sprzedane, aby zaspokoić roszczenia wierzycieli. Natomiast jeśli punkt ksero funkcjonuje bez problemów, może się okazać, że niezbędne będą fundusze na rozszerzenie skali działalności, zakup nowych kserokopiarek i ploterów, nowy samochód dostawczy lub wynajęcie większego biura. Dobrym sposobem zebrania tych funduszy może być utworzenie z innymi osobami spółki jawnej.
Spółka jawna (ang. ) jest organizacją mającą cele gospodarcze, którą tworzą co najmniej dwie osoby będące jej współwłaścicielami. Dzielą one między siebie zyski i ponoszą wspólną, nieograniczoną odpowiedzialność za ewentualne straty. Spółka jawna jest spółką z nieograniczoną odpowiedzialnością, dlatego też w przypadku jej bankructwa właściciele muszą spłacić długi firmy, spieniężając, jeśli okaże się to konieczne, również swój majątek osobisty. Jest to jeden z najważniejszych powodów, dla których przedsiębiorstwa opierające swój sukces rynkowy na zaufaniu klientów, np. firmy oferujące usługi księgowe czy prawnicze, są zazwyczaj zorganizowane w formie spółki jawnej. Stanowi to bowiem gwarancję dla ich klientów, że wspólnicy są gotowi zaangażować swój prywatny majątek, gdyby sytuacja spółki tego wymagała.
Każde przedsiębiorstwo w momencie startu potrzebuje określonej wielkości kapitału w celu sfinansowania zakupów umożliwiających prowadzenie działalności gospodarczej, zakupu surowców, maszyn lub opłacenia kampanii marketingowej. Spółki jawne najczęściej wykorzystują w tym celu środki własne osób zaangażowanych w ich działalność i ewentualnie kredyt bankowy. Natomiast przedsiębiorstwa wymagające dużych początkowych nakładów na zakup maszyn lub skomplikowanych linii produkcyjnych wymagają zainwestowania znacznie większych środków. Ze względu na komplikacje prawne unikają one formy spółki jawnej z dużą lub bardzo dużą liczbą udziałowców (spółka jawna przestaje istnieć w momencie, w którym jeden ze wspólników rezygnuje z prowadzenia działalności lub nie jest do niej zdolny, np. wskutek swojej śmierci). W ich sytuacji dogodną formą organizacji jest spółka kapitałowa (ang. ). W takiej spółce, inaczej niż w spółce jawnej, osobowość prawna powstałego podmiotu jest oddzielona od osobowości prawnej jego właścicieli. Własność jest rozdzielona między akcjonariuszy (w przypadku spółek akcyjnych) lub udziałowców (w przypadku spółek z ograniczoną odpowiedzialnością – z o.o.). Pierwotnymi akcjonariuszami lub udziałowcami są osoby, które założyły przedsiębiorstwo, lecz potem sprzedały swój udział w przyszłych zyskach spółki innym osobom. W ten sposób liczba właścicieli może rosnąć niemal w nieograniczony sposób. Sprzedaż prawa do udziału w zyskach (czyli sprzedaż udziałów lub akcji) staje się źródłem nowych funduszy dla przedsiębiorstwa. W przeciwieństwie do spółki jawnej, spółki kapitałowe mogą zmieniać strukturę swoich udziałowców lub akcjonariuszy, a mimo to prowadzić działalność nieprzerwanie.
W przypadku spółek notowanych na giełdzie (czyli publicznych spółek akcyjnych) akcje mogą zostać odsprzedane na rynku kapitałowym. Informacje o cenach akcji ukazujące się w mediach dotyczą właśnie warunków sprzedaży lub odsprzedaży akcji spółek publicznych. Jednak czasami nawet największe podmioty muszą wyemitować dodatkowe akcje w celu sfinansowania szczególnie dużych przedsięwzięć gospodarczych. Aby stać się akcjonariuszem spółki, trzeba nabyć jej akcje na giełdzie. Można dzięki temu uzyskać dochód z tytułu wypłacanej przez spółkę dywidendy (czyli udziału w tej części zysków, który nie jest przeznaczony na inwestycje) i osiągnąć zyski kapitałowe. Jeśli nabędziemy akcje jakiejś firmy za 150 zł za jedną, a w kolejnych dniach ich cena będzie rosła, to odsprzedając je po 160 zł, osiągniemy 10 zł zysku kapitałowego z jednej akcji. Oczywiście w przypadku spadku cen zamiast zysków notować będziemy straty kapitałowe.
Akcjonariusze i udziałowcy spółek kapitałowych ponoszą jedynie ograniczoną odpowiedzialność za straty podmiotu, którego są współwłaścicielami. Nigdy nie będą zmuszeni do sprzedaży majątku osobistego, aby spłacić dług spółki. W najgorszym przypadku posiadane przez nich akcje lub udziały staną się bezwartościowym „kawałkiem papieru" (obecnie akcje są zdematerializowane, więc ten „kawałek papieru” należy traktować metaforycznie).
Ponieważ akcjonariusze spółek publicznych to bardzo szeroka grupa, często składająca się z tysięcy, a nawet milionów inwestorów, to na swoim walnym zgromadzeniu wybierają oni radę nadzorczą, która z kolei zatrudnia zarząd do prowadzenia bieżącej działalności firmy. Im więcej akcji posiada akcjonariusz, tym więcej głosów może oddać w wyborach do rady nadzorczej spółki. Teoretycznie rada nadzorcza powinna zapewniać, że działalność spółki prowadzona jest rzeczywiście w interesie jej właścicieli, czyli akcjonariuszy. Jednak najwyższe kierownictwo, czyli zarząd, ma silny głos w sprawie wyboru kandydatów do rady nadzorczej. Wydaje się, że niewielu akcjonariuszy ma wystarczającą wiedzę lub motywację osobistą, aby zużywać energię czy wydawać pieniądze na wskazywanie potencjalnych członków zarządu. Większość z nich, kupując akcje, swoją motywację opiera przede wszystkim, jeśli nie wyłącznie, na zyskach kapitałowych. |
# Teoria podaży, kosztów i struktur rynku
## Koszty całkowite i księgowe, zysk księgowy i zysk ekonomiczny
Każde przedsiębiorstwo, niezależnie od swoich rozmiarów i rodzaju działalności, dąży do osiągnięcia zysku:
Utarg całkowity (ang. ) lub inaczej przychód całkowity (przychód ze sprzedaży) to środki, jakie przedsiębiorstwo uzyskuje ze sprzedaży wytwarzanych przez siebie produktów. Obliczamy go, mnożąc cenę produktu przez wolumen sprzedanej produkcji:
W kolejnych rozdziałach dowiedziemy, że przychody ze sprzedaży są funkcją popytu na produkty przedsiębiorstwa.
Koszty całkowite (ang. ) to wszystkie wydatki, jakie przedsiębiorstwo ponosi, produkując i sprzedając wytwarzane dobra i usługi. Przypomnijmy, że proces produkcji to przekształcanie nakładów w gotowe do sprzedaży dobra i usługi (wyroby gotowe). Pozyskanie każdego z tych nakładów wiąże się dla przedsiębiorstwa z pewnym kosztem. Suma wszystkich kosztów stanowi koszt całkowity. W tym rozdziale pokażemy, że koszty ponoszone przez przedsiębiorstwa w krótkim okresie różnią się od tych ponoszonych w długim okresie.
Możemy rozróżnić dwa rodzaje kosztów: księgowe i ekonomiczne. Koszty księgowe (ang. ) to koszty, które, jak sama nazwa wskazuje, są możliwe do ujęcia w księgach rachunkowych. Najczęściej mają formę rzeczywistych płatności dokonywanych przez przedsiębiorstwa. Niekiedy jednak koszty księgowe nie wiążą się bezpośrednio z żadnym wydatkiem. Takim kosztem jest amortyzacja (ang. ), czyli odpis związany z wykorzystaniem maszyny lub innego składnika kapitału rzeczowego, który jest użytkowany przez więcej niż jeden cykl produkcyjny. Najczęściej firmy dokonują pełnej płatności za taką maszynę przy jej zakupie, ale jako koszt traktują tylko część ceny. Koszt ten, czyli właśnie amortyzacja, będzie wpisywany w księgi rachunkowe przez cały okres, w którym dana maszyna jest eksploatowana, choć nie będzie już za sobą pociągał żadnego wydatku (ten opis jest oczywiście uproszczony, ale z uwagi na to, że niniejszy podręcznik traktuje o ekonomii, a nie o rachunkowości, możemy sobie na to pozwolić). Kosztami księgowymi są pensje wypłacane pracownikom lub czynsz za wynajęcie biura. Koszty ekonomiczne (ang. ) są natomiast sumą kosztów księgowych oraz kosztów alternatywnych zasobów posiadanych i wykorzystywanych przez przedsiębiorstwo. W przypadku małych przedsiębiorstw zwykle są to zasoby wniesione przez właścicieli. Wartość pracy właściciela firmy, który nie pobiera za to wynagrodzenia, lub potencjalny dochód, jaki wiązałby się z wynajęciem części posiadanej przez tegoż właściciela i wykorzystywanej na działalność gospodarczą nieruchomości, to przykłady kosztów ekonomicznych.
Te dwie definicje kosztu są ważne dla rozróżnienia dwóch koncepcji zysku: zysku księgowego i zysku ekonomicznego. Zysk księgowy (ang. ) wyraża podejście oparte wyłącznie na kosztach księgowych. Obliczany jest jako różnica między utargiem całkowitym a kosztem księgowym. Natomiast zysk ekonomiczny (ang. ) to utarg całkowity pomniejszony o koszty ekonomiczne, czyli zarówno o koszty księgowe, jak i koszty alternatywne wykorzystywanych zasobów. Różnica jest o tyle istotna, że nawet jeśli przedsiębiorstwo płaci podatek dochodowy od zysku księgowego (zysku brutto), wcale nie oznacza to, że notuje zyski ekonomiczne. A właśnie ta kategoria decyduje o sukcesie przedsiębiorstwa.
Teraz, gdy zapoznaliśmy się z podziałem kosztów na dwie zasadnicze kategorie, przyjrzyjmy się ich strukturze. Może się ona różnić w zależności od tego, czy analizujemy sytuację przedsiębiorstwa w długim, czy w krótkim okresie. Rozróżnienie to będzie przedmiotem naszych rozważań w kolejnych podrozdziałach.
### Key Concepts and Summary
Przedsiębiorstwa prywatne są nastawione na osiąganie zysków. Zysk to różnica między utargiem (przychodami) a kosztami. Zysk księgowy wynika tylko z kosztów księgowych, zaś zysk ekonomiczny uwzględnia również koszty alternatywne wykorzystywanych zasobów (w tym pracy własnej właścicieli), czyli koszty ekonomiczne.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
### References
2010 U.S. Census. www.census.gov.
American Community Survey. 2012. "School Enrollment and Work Status: 2011." Accessed April 13, 2015. http://www.census.gov/prod/2013pubs/acsbr11-14.pdf.
National Center for Educational Statistics. “Digest of Education Statistics.” (2008 and 2010). Accessed December 11, 2013. nces.ed.gov.
CreditCards.com. 2013. http://www.creditcards.com/credit-card-news/credit-card-industry-facts-personal-debt-statistics-1276.php.
AFL-CIO. “Training and Apprenticeships.” http://www.aflcio.org/Learn-About-Unions/Training-and-Apprenticeships.
Central Intelligence Agency. “The World Factbook.” https://www.cia.gov/library/publications/the-world-factbook/index.html.
Clark, John Bates. Essentials of Economic Theory: As Applied to Modern Problems of Industry and Public Policy. New York: A. M. Kelley, 1907, 501.
United Auto Workers (UAW). “About: Who We Are.” http://www.uaw.org/page/who-we-are.
United States Department of Labor: Bureau of Labor Statistics. “Economic News Release: Union Members Summary.” Last modified January 23, 2013. http://www.bls.gov/news.release/union2.nr0.htm.
United States Department of Labor, Bureau of Labor Statistics. 2015. “Economic News; Union Members Summary.” Accessed April 13, 2015. http://www.bls.gov/news.release/union2.nr0.htm.
Clune, Michael S. “The Fiscal Impacts of Immigrants: A California Case Study.” In The Immigration Debate: Studies on the Economic, Demographic, and Fiscal Effects of Immigration, edited by James P. Smith and Barry Edmonston. Washington, DC: National Academy Press, 1998, 120–182. http://www.nap.edu/openbook.php?record_id=5985&page=120.
Smith, James P. “Immigration Reform.” Rand Corporation: Rand Review. http://www.rand.org/pubs/periodicals/rand-review/issues/2012/fall/leadership/immigration-reform.html.
U.S. Department of Homeland Security: Office of Immigration Statistics. “2011 Yearbook of Immigration Statistics.” September 2012. http://www.dhs.gov/sites/default/files/publications/immigration-statistics/yearbook/2011/ois_yb_2011.pdf.
Anderson, Deborah J., Melissa Binder, and Kate Krause. “The Motherhood Wage Penalty Revisited: Experience, Heterogeneity, Work Effort, and Work-Schedule Flexibility.” Industrial and Labor Relations Review. no. 2 (2003): 273–294. http://www2.econ.iastate.edu/classes/econ321/orazem/anderson_motherhood-penalty.pdf.
Turner, Margery Austin, Rob Santos, Diane K. Levy, Doug Wissoker, Claudia Aranda, Rob Pitingolo, and The Urban Institute. “Housing Discrimination Against Racial and Ethnic Minorities 2012.” U.S. Department of Housing and Urban Development. Last modified June 2013. http://www.huduser.org/Publications/pdf/HUD-514_HDS2012.pdf.
Austin, Algernon. “The Unfinished March: An Overview.” Economic Policy Institute. Last modified June 18, 2013. http://www.epi.org/publication/unfinished-march-overview/.
Bertrand, Marianne, and Sendhil Mullainathan. “Are Emily and Greg More Employable Than Lakisha and Jamal? A Field Experiment on Labor Market Discrimination.” American Economic Review. no. 4 (2004): 991-1013. https://www.aeaweb.org/articles.php?doi=10.1257/0002828042002561&fnd=s.
Blau, Francine D., and Laurence M. Kahn. “The Gender Pay Gap: Have Women Gone as Far as They Can?” Academy of Management Perspectives. no. 1 (2007): 7–23. 10.5465/AMP.2007.24286161.
Card, David, and Alan B. Kruger. “Trends in Relative Black–White Earnings Revisited (Working Paper #310).” Princeton University and the National Bureau of Economic Research. December 1992. http://harris.princeton.edu/pubs/pdfs/310.pdf.
Donovan, Theresa. Jurist. “Federal Judge Rejects Class Status in Wal-Mart Discrimination Suit.” Last modified August 5, 2013. http://jurist.org/paperchase/2013/08/federal-judge-rejects-class-status-in-wal-mart-discrimination-suit.php.
Harris, Elizabeth A. “Labor Panel Finds Illegal Punishments at Walmart.” The New York Times, November 18, 2013. http://www.nytimes.com/2013/11/19/business/labor-panel-finds-illegal-punishments-at-walmart.html?_r=1&.
Kolesnikova, Natalia A., and Yang Liu. Federal Reserve Bank of St. Louis: The Regional Economist. “Gender Wage Gap May Be Much Smaller Than Most Think.” Last modified October 2011. http://www.stlouisfed.org/publications/re/articles/?id=2160.
Podmolik, Mary Ellen. “HUD Finds Housing Discrimination ‘Hidden’ But Prevalent.” Chicago Tribune: Business, June 12, 2013. http://articles.chicagotribune.com/2013-06-12/business/ct-biz-0612-housing-discrimination-20130612_1_renters-testers-chicago-area.
Spreen, Thomas Luke. United States Department of Labor: Bureau of Labor Statistics. “Recent College Graduates in the U.S. Labor Force: Data from the Current Population Survey.” Monthly Labor Review (February, 2013). http://www.bls.gov/opub/mlr/2013/02/art1full.pdf .
U.S. Bureau of Labor Statistics: BLS Reports. 2014. “Women in the Labor Force: A Databook (Report 1052).” Accessed April 13, 2015. http://www.bls.gov/opub/reports/cps/women-in-the-labor-force-a-databook-2014.pdf.
U.S. Equal Employment Opportunity Commission, “Walmart to Pay More than $11.7 Million to Settle EEOC Sex Discrimination Suit.” Last modified March 1, 2010. http://www.eeoc.gov/eeoc/newsroom/release/3-1-10.cfm.
United States Census Bureau. 2014. “Table 1. Educational Attainment of the Population 18 Years and Over, by Age, Sex, Race, and Hispanic Origin: 2014.” Accessed April 13, 2015. http://www.census.gov/hhes/socdemo/education/data/cps/2014/tables.html.
United States Department of Labor: Bureau of Labor Statistics. “News Release: Usual Weekly Earnings of Wage and Salary Workers (Third Quarter 2013).” November 1, 2013. http://www.bls.gov/news.release/pdf/wkyeng.pdf.
Warner, Judith. 2014. “Fact Sheet: The Women’s Leadership Gap: Women’s Leadership by the Numbers.” Center for American Progress. Accessed March 16, 2015. https://www.americanprogress.org/issues/women/report/2014/03/07/85457/fact-sheet-the-womens-leadership-gap/.
Weinberger, Catherine J., and Lois Joy. “The Relative Earnings of Black College Graduates, 1980–2001.” In Race and Economic Opportunity in the 21st Century, edited by Marlene Kim. New York: Routledge, 2007. http://www.econ.ucsb.edu/~weinberg/grads.pdf. |
# Teoria podaży, kosztów i struktur rynku
## Produkcja w krótkim okresie
W tym podrozdziale chcemy zbadać związek między wytwarzanym przez przedsiębiorstwo wolumenem produkcji a kosztem jego wytworzenia. Wspomnieliśmy już, że koszt konkretnego dobra lub usługi zależy od tego, ile nakładów jest potrzebnych do ich wyprodukowania i ile te nakłady kosztują. Na pierwsze pytanie możemy odpowiedzieć, wprowadzając funkcję produkcji przedsiębiorstwa.
Produkcja to proces (lub znacznie częściej szereg procesów), który przedsiębiorstwo wykorzystuje do przekształcania nakładów (np. pracy, kapitału, surowców) w gotowe produkty, tj. dobra lub usługi oferowane przez firmę na rynku. Przeanalizujmy proces powstawania pizzy. Pizzaiolo (czyli kucharz formujący pizzę) potrzebuje mąki, wody i drożdży, aby zrobić ciasto. Następnie z pomidorów, przypraw i wody przygotowuje sos, którym posmaruje uformowany placek. Po nałożeniu nań sera i innych dodatków (szynki, grzybów, owoców morza itp.) pizza trafia do pieca. No właśnie, w pizzerii niezbędny jest piec opalany drewnem, jak również specjalna drewniana deska podobna do łopaty, która służy do wkładania i wyjmowania pizzy. Po upieczeniu pizzę pakuje się do pudełka (jeśli jest na wynos), a klient płaci za przygotowany produkt. Jakie są zatem nakłady (lub czynniki produkcji) wykorzystywane w procesie produkcji pizzy?
Ekonomiści dzielą czynniki produkcji na kilka kategorii:
1.
2.
3.
4.
5.
Koszt produkcji pizzy (lub dowolnego innego produktu) zależy od ilości kapitału, pracy, surowców i innych niezbędnych czynników produkcji oraz ceny, którą musi zapłacić przedsiębiorca za każdy z nich. Przyjrzyjmy się zatem temu problemowi nieco dokładniej.
Możemy podsumować nasze dotychczasowe rozważania w formie funkcji produkcji – wyrażenia matematycznego lub równania, które wyjaśnia relację między danymi wejściowymi a wynikami: gdzie NR to zasoby naturalne (Natural Resources), L to praca (Labor), K to kapitał (Capital), t to technologia (Technology) oraz E to przedsiębiorczość (Entrepreneurship).
Funkcja produkcji daje odpowiedź na pytanie, jaką wielkość produkcji może wytworzyć przedsiębiorstwo przy różnych poziomach nakładów. Dla każdego produktu (pizzy, samochodu i zboża) można stworzyć specyficzną i unikalną funkcję produkcji. Ilość pracy wykorzystywanej przez rolnika do wyprodukowania kwintala pszenicy jest prawdopodobnie inna niż ilość pracy potrzebna do wyprodukowania samochodu. Każde przedsiębiorstwo może produkować w nieco inny sposób, więc nawet funkcje produkcji przedsiębiorstw z tej samej branży mogą być nieco inne (w jednej pizzerii wszystkie składniki pizzy wytwarzane będą w lokalu, zaś w drugiej ciasto i sos dostarczą poddostawcy). Pizzeria z konsumpcją na miejscu prawdopodobnie zużywa więcej pracy (kelnerów i osób zmywających zastawę stołową) niż restauracja produkująca wyłącznie na wynos.
Możemy opisać te nakłady i czynniki produkcji (oraz wiążące się z nimi koszty) jako stałe lub zmienne.
Stałe nakłady i czynniki produkcji (ang. ) to takie, których ilości nie można zwiększyć lub zmniejszyć w krótkim okresie. W przykładzie z pizzą nakładem stałym jest np. lokal. Gdy przedsiębiorca podpisze umowę najmu i zobowiąże się opłacać czynsz w jakimś okresie, nie może się z niej wycofać aż do momentu jej wygaśnięcia. W krótkim okresie nie da się również znaleźć kolejnej nieruchomości, którą od razu można wykorzystać jako pizzerię. Oznacza to, że również koszt najmu pomieszczeń jest stały. Stałe nakłady określają maksymalną zdolność produkcyjną przedsiębiorstwa w krótkim okresie. Przecież nawet jeśli będziemy powiększać zatrudnienie i kupować więcej surowców, to w jednym budynku nie da się zwiększać produkcji pizzy w nieskończoność. Analogicznie jest z potencjalnym produktem możliwym do wytworzenia w danym społeczeństwie, który zdefiniowany jest przez krzywą możliwości produkcyjnych. Wskazuje ona na maksymalną wielkość produkcji, jaką społeczeństwo może wytworzyć w danym momencie przy użyciu dostępnych zasobów.
Zmienne nakłady i czynniki produkcji (ang. ) można łatwo zwiększyć lub zmniejszyć w krótkim okresie. Aby zamówić więcej mąki, pomidorów i szynki, pizzaiolo może po prostu zadzwonić do dostawcy. Składniki do przygotowania placków są zatem nakładami zmiennymi. Właściciel może również dość szybko zatrudnić nową osobę do obsługi telefonicznych zamówień, ponieważ praca ta nie wymaga żadnych długo nabywanych umiejętności ani kwalifikacji.
Ekonomiści zwykle używają skróconej formy funkcji produkcji: gdzie L reprezentuje wszystkie nakłady zmienne, zaś K – wszystkie nakłady stałe. Wynika to z przyjęcia założenia, zgodnie z którym w krótkim okresie łatwo jest zwiększać nakład pracy (Labor), natomiast powiększanie nakładu Kapitału nie jest możliwe.
W konsekwencji ekonomiści analizują sytuację przedsiębiorstwa, w tym przede wszystkim poziom jego produkcji, w krótkim i w długim okresie.
Krótki okres (ang. ) to czas, w którym przynajmniej niektóre czynniki produkcji są stałe. Dla pizzerii krótkim okresem będzie czas obowiązywania umowy najmu pomieszczeń, ponieważ związany bieżącą umową właściciel nie może wybrać innego lokalu.
W długim okresie (ang. ) wszystkie nakłady i czynniki produkcji są zmienne. Po wygaśnięciu umowy najmu pomieszczeń na pizzerię właściciel może przenieść się do większego lub mniejszego lokalu, w zależności od popytu na przygotowywane przezeń placki.
Przyjrzyjmy się produkcji w krótkim okresie na konkretnym przykładzie: ścinania drzew za pomocą piły spalinowej.
Ponieważ na mocy definicji nakład kapitału jest stały w krótkim okresie, nasza funkcja produkcji ma postać:
To równanie w prosty sposób pokazuje, że wielkość produkcji (np. liczba drzew ścinanych dziennie) zależy tylko od wielkości zatrudnionej siły roboczej (np. liczby pracujących drwali), przy założeniu, że nakład kapitału jest stały (czyli dysponują oni jedną piłą spalinową). Możemy zilustrować funkcję produkcji konkretnymi wartościami, tak jak to zostało pokazane w .
Warto zauważyć, że do naszych rozważań wprowadziliśmy nowe pojęcia. Produkcję (Q) możemy także nazwać produkcją całkowitą (TP – ), co oznacza wielkość produkcji wytworzoną przy danej ilości pracy i stałej ilości kapitału. W tym przykładzie jeden drwal używający piły może ściąć cztery drzewa w ciągu godziny. Dwóch drwali, mając do dyspozycji jedną piłę, może ściąć w tym samym okresie dziesięć drzew. Dzieje się tak dlatego, że podczas gdy pierwszy pracuje przy ścinaniu, drugi wyszukuje kolejne drzewa nadające się do ścięcia. Mogą się również zmieniać przy pracy, dzięki czemu mniej się męczą i pracują wydajniej.
Powinniśmy również wprowadzić bardzo ważne pojęcie: produkt krańcowy (marginalny) (ang. ). Produkt krańcowy to dodatkowa produkcja, która zostaje wytworzona dzięki zatrudnieniu kolejnego pracownika. Produktu krańcowego nie należy jednak utożsamiać z konkretnymi dobrami lub usługami, które wytworzyła nowo zatrudniona osoba. Przecież dodatkowe 6 ściętych drzew w naszym przykładzie zostało wyprodukowane przez dwóch drwali. Przyrost produkcji był możliwy dzięki zatrudnieniu kolejnego pracownika, ale nie jest on efektem wyłącznie jego pracy. W ujęciu matematycznym produkt krańcowy to przyrost produktu całkowitego podzielony przez przyrost nakładu pracy: W powyższej tabeli, ponieważ 0 pracowników ścina 0 drzew, produkt krańcowy pierwszego pracownika to cztery drzewa dziennie, ale produkt krańcowy drugiego pracownika to sześć drzew dziennie. Dlaczego tak się dzieje? Jak wskazaliśmy powyżej, wynika to z charakteru omawianego procesu produkcyjnego. Załóżmy, że dodamy do tej historyjki trzeciego drwala. Jaki będzie produkt krańcowy tej osoby? Co ta osoba wniesie do zespołu? Może na przykład dbać o dostarczanie paliwa, dzięki któremu piła mechaniczna działa, albo przynosić wodę, którą orzeźwiać się będą koledzy. Trzeci pracownik umożliwi również jeszcze częstsze zmiany przy ścinaniu, co uczyni pracę każdego z drwali szybszą. Wartości, które zostały wskazane w tabeli, pozwalają na sformułowanie niezwykle ważnego wniosku dotyczącego produkcji w krótkim okresie. Wraz ze wzrostem liczby zatrudnionych osób produkt krańcowy początkowo rośnie, ale wcześniej czy później nieuchronnie zaczyna maleć. Od pewnego poziomu zatrudnienia każdy kolejny pracownik nie przekłada się już na wzrost wielkości produkcji albo jego wpływ na produkt całkowity jest ujemny. Wniosek ten nazywany jest prawem malejącego produktu krańcowego (ang. ) i jest immanentną cechą produkcji w krótkim okresie.
Koncepcja malejącej produktywności krańcowej jest bardzo podobna do malejącej użyteczności krańcowej, o której była mowa w rozdziale dotyczącym wyboru konsumenta. Obie z kolei są przykładami bardziej ogólnej koncepcji malejących przychodów krańcowych. Dlaczego produktywność krańcowa maleje? Dzieje się tak ze względu na stały nakład kapitału (szerzej – na nakłady stałych czynników produkcji). Wrócimy do tego zagadnienia, gdy w jednym z kolejnych podrozdziałów będziemy omawiać produkcję w długim okresie.
Prawo malejącego produktu krańcowego możemy również przedstawić graficznie, na przykład tak, jak na i . wykorzystuje dane z . Natomiast przedstawia bardziej ogólne przypadki krzywych produktu całkowitego i krańcowego.
### Key Concepts and Summary
Produkcja to seria toczących się w przedsiębiorstwie procesów, które prowadzą do przekształcania nakładów i czynników produkcji (np. pracy, kapitału, surowców itp.) w dobra i usługi, jakie będzie można zaoferować nabywcom na rynku. Zmiana nakładu stałych czynników produkcji (przede wszystkim kapitału) w krótkim okresie jest niemożliwa. Przyrost produkcji w krótkim okresie jest zatem konsekwencją rosnącego nakładu zmiennych czynników produkcji, przede wszystkim wzrostu liczby zatrudnionych pracowników. Produkt krańcowy to dodatkowa produkcja, którą przedsiębiorstwo uzyskuje, zatrudniając kolejne jednostki siły roboczej (dodatkowych ludzi). Dla każdej funkcji produkcji w krótkim okresie wzrost zatrudnienia powyżej pewnego poziomu doprowadzi do spadku produktu krańcowego – kolejni zatrudniani pracownicy będą przyczyniać się do coraz mniejszych przyrostów produkcji całkowitej. Z matematycznego punktu widzenia produkcja krańcowa to nachylenie krzywej produkcji całkowitej.
### Review Questions
|
# Teoria podaży, kosztów i struktur rynku
## Koszty w krótkim okresie
W poprzednim podrozdziale wyjaśniliśmy już, że całkowite koszty zależą od wielkości nakładów, które przedsiębiorstwo wykorzystuje do wytworzenia konkretnego wolumenu swojej produkcji, oraz od kosztów tych nakładów. Funkcja produkcji przedsiębiorstwa wskazuje, jaki wolumen produkcji zostanie wytworzony przy danym poziomie nakładów. Na problem ten można jednak spojrzeć również z drugiej strony: ile i jakich nakładów potrzebuje przedsiębiorstwo, aby wyprodukować konkretną ilość produktów. Jest to pierwsza informacja, jakiej potrzebujemy, aby określić koszt całkowity. Przejdźmy teraz do drugiej, czyli do kosztu pozyskania konkretnych nakładów i czynników produkcji.
Z każdym czynnikiem produkcji (lub nakładem) związany jest konkretny rodzaj wynagrodzenia za jego wykorzystanie. Płatności za wykorzystanie czynników produkcji są kosztem z punktu widzenia przedsiębiorstwa. Z kolei dla właściciela każdego z czynników produkcji te płatności są jego dochodami. Opłaty za wykorzystane czynniki produkcji obejmują:
1.
Ceny surowców. Należy jednak zaznaczyć, że w klasycznym ujęciu surowce (takie jak węgiel kamienny, ropa naftowa lub drewno) są elementem czynnika produkcji „ziemia”
2.
Rentę gruntową lub czynsz za grunt albo budynki (czynnik produkcji „ziemia”)
3.
Płace i wynagrodzenia za pracę
4.
Odsetki (procenty) i dywidendy za wykorzystanie kapitału finansowego (kredyty i inwestycje kapitałowe)
5.
Mamy teraz wszystkie informacje niezbędne do określenia kosztów działalności przedsiębiorstwa.
Funkcja kosztu to wyrażenie lub równanie matematyczne, które pokazuje koszt wytworzenia różnych wielkości produkcji.
Możemy zauważyć, że koszt wzrasta, gdy przedsiębiorstwo zwiększa wolumen produkcji. Jest to dość intuicyjne, ponieważ wytwarzanie większej liczby produktów wymaga większych nakładów, których pozyskanie kosztuje więcej.
Skąd pochodzą dane dotyczące kosztów? Wynikają one z funkcji produkcji przedsiębiorstwa i cen czynników produkcji. Znajdujące się powyżej omówienie kosztów związanych z konkretnymi czynnikami produkcji i nakładami w krótkim okresie bazuje na funkcji produkcji podobnej do tej, którą zastosowano w poprzednim podrozdziale w odniesieniu do ścinanych drzew – .
Możemy wykorzystać informacje z funkcji produkcji do określenia kosztów produkcji. Musimy jednak wiedzieć, ilu pracowników jest potrzebnych do wyprodukowania każdej liczby gadżetów. Jeśli zamienimy kolejność wierszy w tabeli, przekształcimy funkcję produkcji tak, aby pokazała L = f(Q).
Teraz skupimy się wyłącznie na rozmiarach produkcji wyrażonej w liczbach całkowitych, a więc eliminujemy z tabeli wartości ułamkowe. Załóżmy również, że każdy z pracowników, który produkuje gadżety, zarabia 10 zł za godzinę swojej pracy. Pomnożenie wiersza zawierającego dane o liczbie pracowników przez 10 zł (i eliminacja pustych pól) pozwoli nam oszacować koszt produkcji konkretnej liczby gadżetów.
To ta sama funkcja kosztów, od której zaczęliśmy! (Pokazana w .)
Teraz, gdy mamy już ogólne pojęcie o źródłach kosztów i ich związku z wielkością produkcji, przejdźmy do szczegółów.
### Koszty przeciętne i krańcowe
Koszt wytworzenia produkcji zależy od tego, ile pracy i kapitału fizycznego wykorzystuje przedsiębiorstwo. Lista kosztów związanych z produkcją samochodów będzie wyglądać zupełnie inaczej niż w przypadku produkcji oprogramowania komputerowego, strzyżenia włosów czy dostarczania posiłków typu fast food.
Możemy mierzyć koszty na różne sposoby, a każdy zapewnia nieco inną perspektywę. Czasem przedsiębiorstwa muszą spojrzeć na jednostkowy koszt produkcji, a nie tylko na koszt całkowity. Istnieją dwa sposoby mierzenia kosztów jednostkowych. Najbardziej intuicyjny sposób to koszt przeciętny, czyli średni koszt wyprodukowania jednego dobra dla danych rozmiarów produkcji. Koszt przeciętny (ang. ) definiujemy jako koszty całkowite podzielone przez liczbę wytworzonych produktów: . Jeśli wyprodukowanie dwóch gadżetów kosztuje łącznie 44 zł, to koszt przeciętny jednego gadżetu wynosi . Innym sposobem mierzenia kosztu w przeliczeniu na jednostkę jest koszt krańcowy (ang. ). Jeśli koszt przeciętny jest średnim kosztem na jednostkę wytworzonej produkcji, to koszt krańcowy jest kosztem wyprodukowania każdej dodatkowej jednostki produkcji. Bardziej formalnie, koszt krańcowy to koszt wytworzenia każdej kolejnej jednostki produkcji. Matematycznie koszt krańcowy to zmiana kosztu całkowitego podzielona przez zmianę wielkości produkcji: . Jeśli koszt pierwszego gadżetu to 32,50 zł, a koszt dwóch gadżetów 44 zł, wówczas koszt krańcowy drugiego produktu wynosi . Poniżej znajduje się tabela z kosztami produkcji gadżetów rozbudowana o wartość kosztu przeciętnego i krańcowego.
Zauważ, że koszt krańcowy pierwszej jednostki produkcji jest zawsze taki sam jak koszt całkowity.
### Koszty stałe i zmienne
Koszty całkowite (ang. ) możemy podzielić na koszty stałe i koszty zmienne. Koszty stałe (ang. ) to koszty stałych nakładów czynników produkcji (np. kapitału). Ponieważ nakłady stałe nie zmieniają się w krótkim okresie, koszty stałe to wydatki, które są niezależne od wielkości produkcji. Bez względu na to, czy produkujesz dużo, czy mało, koszty stałe są takie same. Jednym z przykładów kosztu stałego jest czynsz za fabrykę lub powierzchnię handlową. Po podpisaniu umowy najmu czynsz jest taki sam niezależnie od tego, ile wyprodukujesz; przynajmniej do czasu wygaśnięcia umowy. Koszty stałe związane są również z innymi nakładami i procesami produkcyjnymi: będą to np. koszty maszyn lub sprzętu do wytwarzania produktów, koszty badań i rozwoju nowych produktów, a nawet wydatki na reklamę popularyzującą markę. Wysokość kosztów stałych jest różna w różnych branżach, np. produkcja układów scalonych wykorzystywanych w komputerach wymaga budowy drogiej fabryki, ale lokalne przedsiębiorstwo zajmujące się przeprowadzkami i transportem może obejść się prawie bez kosztów stałych, jeśli będzie wynajmować ciężarówki tylko w te dni, w których prowadzi aktywną działalność.
Koszty zmienne (ang. ) to koszty zmiennych nakładów czynników produkcji (np. pracy). Jedynym sposobem na zwiększenie lub zmniejszenie produkcji w krótkim okresie jest zwiększenie lub zmniejszenie tych nakładów. Dlatego koszty zmienne rosną lub maleją wraz ze zmianą wolumenu produkcji. Traktujemy pracę jako koszt zmienny, ponieważ wyprodukowanie większej ilości dóbr lub usług zazwyczaj wymaga większej liczby pracowników lub większej liczby godzin pracy. Koszty zmienne obejmują również koszt pozyskania surowców.
Koszty całkowite to suma kosztów stałych i zmiennych. Spójrzmy na inny przykład. Pomyślmy o zakładzie fryzjerskim działającym pod nazwą Strzyżenie Owiec, którego koszty całkowite zostały przedstawione na . Dane dotyczące produkcji i kosztów znajdują się w . Koszty stałe prowadzenia salonu fryzjerskiego, łącznie z wynajęciem powierzchni i wyposażenia, wynoszą 160 zł dziennie. Koszty zmienne to koszty zatrudnienia fryzjerów, które w naszym przykładzie wynoszą 80 zł na fryzjera dziennie. Pierwsze dwie kolumny tabeli pokazują dzienną liczbę ostrzyżonych głów przy różnych poziomach zatrudnienia. Trzecia kolumna zawiera koszty stałe, które nie zmieniają się niezależnie od wielkości produkcji. Czwarta kolumna przedstawia koszty zmienne przy każdym z poziomów produkcji. Obliczamy je, mnożąc liczbę zatrudnionych pracowników przez ich płacę. Na przykład dwóch fryzjerów kosztuje: . Zsumowanie kosztów stałych z trzeciej kolumny i kosztów zmiennych z czwartej kolumny daje łączne koszty w piątej kolumnie. Na przykład przy zatrudnieniu dwóch fryzjerów koszt całkowity wynosi: .
Przy zerowej produkcji koszty stałe wynoszą 160 zł. Wraz ze wzrostem jej wolumenu do kosztów stałych dodajemy koszty zmienne, a koszt całkowity jest sumą tych dwóch elementów. przedstawia związek między wielkością produkcji a kosztem jej wytworzenia. Wartość kosztów stałych jest odłożona na osi pionowej, w punkcie jej przecięcia z krzywą kosztów całkowitych. Jak widać, koszty stałe występują również wtedy, gdy przedsiębiorstwo nic nie produkuje.
Na wykresie daje się zauważyć, że po rozpoczęciu produkcji koszty zmienne, a w konsekwencji również całkowite, rosną. Koszty zmienne mogą początkowo powiększać się w bardzo umiarkowanym tempie, ale w pewnym momencie zaczynają przyrastać coraz szybciej. Jest to spowodowane malejącą produktywnością krańcową – zależnością, którą omówiliśmy w poprzednim podrozdziale. Po zatrudnieniu pierwszego fryzjera pojawia się w ogóle jakikolwiek produkt, który definiujemy jako 16 ostrzyżonych głów. Tyle właśnie wynosi produkt krańcowy. Po zatrudnieniu kolejnego pracownika produkcja wzrasta z 16 do 40 ostrzyżonych głów, a zatem produkt krańcowy jest równy 24. Od tego momentu jednak produkt krańcowy maleje wraz z zatrudnianiem kolejnych pracowników. Gdy liczba fryzjerów wzrasta z dwóch do trzech, produkt krańcowy wynosi tylko 20, zaś gdy liczba zatrudnionych powiększa się z trzech do czterech, produkt krańcowy osiąga wartość jedynie 12.
Aby zrozumieć, dlaczego tak się dzieje, weź pod uwagę, że jednoosobowy zakład fryzjerski to bardzo pracochłonny biznes. Jeśli w zakładzie zatrudniony jest tylko jeden fryzjer, to musi on robić wszystko: przywitać się z wchodzącymi klientami, odbierać telefony, strzyc włosy, sprzątać i przyjmować należności. Zatrudnienie drugiego pracownika zmniejsza problemy związane z odrywaniem się od strzyżenia i czesania głów oraz pozwala na podział pracy i specjalizację. Rezultatem może być wzrost produktu krańcowego. Jednak zatrudnianie kolejnych fryzjerów powoduje, że korzyści z przyjęcia do pracy każdego nowego pracownika są mniejsze, ponieważ specjalizacja pracy może postępować tylko do pewnego momentu. Dodanie szóstego, siódmego lub ósmego fryzjera tylko po to, by witał ludzi przy drzwiach lub zamiatał podłogę, będzie miało mniejszy wpływ na wielkość produkcji niż zatrudnienie drugiego. I z tego właśnie powodu produkt krańcowy wcześniej czy później zaczyna maleć. W rezultacie koszty całkowite zaczynają rosnąć szybciej wraz ze wzrostem produkcji. W pewnym momencie może się wręcz okazać, że zatrudnienie kolejnego pracownika generuje ujemny produkt krańcowy (tak dzieje się z siódmym fryzjerem w naszym hipotetycznym zakładzie), gdy pracownicy zaczną obijać się łokciami, przeszkadzać sobie w pracy i wchodzić nawzajem w drogę.
Ten wzorzec malejącej produktywności krańcowej (ang. ) występuje powszechnie w działalności produkcyjnej. Rozważ teraz problem nawadniania upraw. Areał wykorzystywanych pól jest stałym czynnikiem produkcji, podczas gdy koszt pozyskania wody stanowi kluczowy element kosztów zmiennych. Gdy rolnik zwiększa ilość wykorzystywanej wody, wzrasta wydajność jego produkcji. Jednak dodawanie coraz większej ilości wody powoduje mniejsze przyrosty zbiorów z hektara, aż w pewnym momencie wody jest tak dużo, że uprawy po prostu gniją. Malejąca produktywność krańcowa pojawia się, ponieważ przy stałych nakładach części czynników produkcji (w tym przykładzie ziemia) każda dodatkowa jednostka nakładu zmiennego (np. woda) w coraz mniejszym stopniu przekłada się na wzrost produkcji.
### Przeciętny koszt całkowity, przeciętny koszt zmienny i koszt krańcowy
Podział kosztów całkowitych na stałe i zmienne może również stanowić podstawę do innych spostrzeżeń. Pierwsze pięć kolumn w wykorzystuje explicite dane z poprzedniej tabeli, ale ostatnie trzy kolumny prezentują przeciętny koszt całkowity, przeciętny koszt zmienny i koszt krańcowy. Te nowe kategorie analizują koszty w przeliczeniu na jednostkę (a nie w ujęciu całkowitym) i są pokazane na .
Przeciętny koszt całkowity (ang. ) – czasami nazywany po prostu kosztem przeciętnym – jest kosztem całkowitym podzielonym przez wielkość produkcji. Ponieważ całkowite koszty ostrzyżenia 40 głów wynoszą 320 zł, to przeciętny koszt całkowity jednego strzyżenia wynosi 320 / 40, czyli 8 [zł]. Krzywe kosztu przeciętnego zwykle mają kształt litery U, tak jak to widać na . Krzywa przeciętnego kosztu całkowitego zaczyna się stosunkowo wysoko, ponieważ przy niskich poziomach produkcji koszty całkowite są zdominowane przez koszty stałe. Matematycznie – mianownik jest tak mały, że przeciętny koszt całkowity jest duży. Następnie przeciętny koszt całkowity spada, ponieważ koszty stałe rozkładają się na coraz większą liczbę wytworzonych produktów. Jednak wraz z dalszym wzrostem produkcji koszt przeciętny zaczyna rosnąć. Wraz z malejącą produktywnością krańcową koszty zmienne zaczynają przyrastać szybciej niż wolumen produkcji, co zwiększa również przeciętny koszt całkowity.
Przeciętny koszt zmienny (ang. ) otrzymujemy, dzieląc koszty zmienne przez wielkość produkcji. Na przykład koszt zmienny ostrzyżenia 80 głów wynosi 400 zł, więc przeciętny koszt zmienny to 400 / 80, czyli 5 [zł] za strzyżenie. Należy zauważyć, że dla każdego poziomu produkcji krzywa przeciętnego kosztu zmiennego zawsze będzie leżeć poniżej krzywej przeciętnego kosztu całkowitego (). Po prostu przeciętny koszt całkowity uwzględnia również koszty stałe, zatem musi być większy niż przeciętny koszt zmienny. Stąd dla Q = 80 ostrzyżonych głów przeciętny koszt całkowity to 8 zł na strzyżenie, podczas gdy przeciętny koszt zmienny to tylko 5 zł na strzyżenie. Jednak wraz ze wzrostem produkcji koszty stałe stają się relatywnie mniej istotne (ponieważ nie rosną one wraz z powiększającym się wolumenem produkcji), więc przeciętny koszt zmienny zbliża się wartością do przeciętnego kosztu całkowitego.
Przeciętne koszty całkowity i zmienny mierzą koszt wytworzenia jednego produktu dla każdego wolumenu produkcji. Koszt krańcowy (ang. ) niesie ze sobą nieco inną informację. Koszt krańcowy to dodatkowy koszt wytworzenia jeszcze jednej jednostki produkcji. Nie jest to koszt jednostkowy wszystkich wyprodukowanych jednostek. Interesuje nas tylko koszt związany z produkcją następnej jednostki (lub kilku następnych). Koszt krańcowy obliczamy, dzieląc zmianę całkowitych kosztów przez zmianę wyprodukowanej liczby produktów. Na przykład, gdy liczba ostrzyżonych głów wzrośnie z 40 do 60, to całkowite koszty wzrosną o 400 – 320, czyli 80 [zł]. Zatem koszt krańcowy każdej z tych dodatkowych 20 jednostek produkcji wyniesie 80 / 20, czyli 4 [zł] na strzyżenie. Krzywa kosztów krańcowych jest na ogół nachylona w górę, ponieważ malejące korzyści krańcowe oznaczają, że wytworzenie dodatkowych jednostek produkcji jest coraz bardziej kosztowne. Na wykresie widzimy również niewielki zakres produkcji, w którym krzywa kosztu krańcowego opada. Nas jednak najbardziej interesuje punkt, w którym wykresy krzywych kosztu krańcowego i kosztu przeciętnego przecinają się. O znaczeniu tego punktu (tych rozmiarów produkcji) piszemy w poniższej .
Konkretne wartości liczbowe reprezentujące całkowity koszt przeciętny, przeciętny koszt zmienny i koszt krańcowy zmieniają się, co oczywiste, w przypadku różnych przedsiębiorstw. Jednak ogólne wzorce zmienności tych krzywych oraz stojące za nimi relacje i intuicja ekonomiczna nie ulegną zmianie niezależnie od tego, czy rozważamy funkcjonowanie zakładu fryzjerskiego, produkcję zboża, czy też wytwarzanie gadżetów.
### Lekcje płynące z alternatywnych metod mierzenia kosztów
Podział kosztów całkowitych na koszty stałe, krańcowe i przeciętne jest przydatny, ponieważ każda z tych alternatywnych miar pozwala spojrzeć na sposób funkcjonowania przedsiębiorstwa w nieco inny sposób.
Bez względu na wielkość produkcji utarg całkowity musi przekraczać koszty całkowite, jeśli przedsiębiorstwo ma osiągnąć zysk. Jednak, jak omówiliśmy to w , koszty stałe są często kosztami utopionymi (ang. ), których przedsiębiorstwo nie może odzyskać. Powinny być zatem ignorowane podczas podejmowania decyzji o tym, co można zrobić, aby poprawić sytuację przedsiębiorstwa. Można natomiast zmienić wartość kosztów zmiennych, dzięki czemu przedsiębiorstwo ma szansę stać się dochodowe. Jest to przecież jedyna kategoria kosztów, które mogą się zmieniać w krótkim okresie, w związku z czym to one właśnie rosną lub maleją wraz ze wzrostem lub spadkiem wolumenu produkcji.
Koszt przeciętny informuje, czy przedsiębiorstwo może osiągać zyski przy danej cenie na rynku. Jeśli podzielimy zysk przez wielkość produkcji, otrzymamy zysk jednostkowy (ang. ), nazywany również marżą zysku. Rozszerzone równanie zysku ma postać:
Jednak zauważ, że
A zatem
Tak właśnie definiujemy marżę zysku (ang. ) przedsiębiorstwa. Z tej definicji wynika, że jeśli cena rynkowa jest wyższa od kosztu przeciętnego, to zysk przeciętny, a tym samym zysk całkowity, będzie dodatni. Jeśli cena rynkowa jest niższa od kosztu przeciętnego, wówczas zyski będą ujemne.
Możemy również porównać krańcowy koszt wytworzenia dodatkowej jednostki z krańcowym przychodem uzyskanym ze sprzedaży tej dodatkowej jednostki, aby pokazać, czy dodatkowa jednostka zwiększa całkowity zysk, czy nie. Tak więc koszt krańcowy pomaga producentom zrozumieć, w jaki sposób zwiększenie lub zmniejszenie produkcji wpłynie na ich zyski.
### Zróżnicowanie kosztów
Struktura kosztów jest różna w różnych gałęziach gospodarki, a nawet w różnych przedsiębiorstwach działających w tej samej branży. Niektóre firmy mają wysokie koszty stałe, ale niskie koszty krańcowe. Rozważmy przykład operatora prywatnego odcinka autostrady (lub innego elementu infrastruktury: mostu, tunelu itd.). Koszty zbudowania odcinka autostrady, postawienia infrastruktury służącej do poboru opłat i ewentualnie wynagrodzenia personelu pracującego w punktach poboru opłat mają charakter stały. Nie zależą od tego, ile samochodów przejedzie płatnym odcinkiem drogi (co jest substytutem wielkości produkcji). Gdy autostrada zostanie oddana do użytku, może zapewnić wysokie przychody (z opłat wnoszonych przez kierowców) przy bardzo niskich kosztach zmiennych. W takim przypadku krzywa kosztów całkowitych może zaczynać się na wysokim poziomie ze względu na wysokie koszty stałe, ale potem może być dość płaska, aż do znacznych wielkości produkcji, co odzwierciedla niskie koszty zmienne eksploatacji. Jednak jeżeli ten odcinek stanie się popularny, duża liczba podróżnych będzie powodować korki, co będzie oczywiście wymagało rozbudowy zarówno punktów poboru opłat, jak i samej drogi.
W przypadku innych przedsiębiorstw koszty stałe mogą być stosunkowo niskie. Weźmy jako przykład firmy, które zajmują się utrzymaniem czystości chodników i terenów zielonych. Jeśli chodzi o koszty stałe, to potrzebują one niewiele więcej niż samochód do transportu pracowników oraz kilka sztuk grabi i łopat. W jeszcze innych przedsiębiorstwach wartość produktu krańcowego może bardzo gwałtownie maleć. Jeśli zakład produkcyjny próbowałby działać 24 godziny na dobę przez siedem dni w tygodniu, to niewiele czasu pozostawałoby na rutynową konserwację sprzętu. Koszty krańcowe mogłyby drastycznie wzrosnąć, gdyby przedsiębiorstwo musiało naprawić lub wymienić zużyty sprzęt.
Każde przedsiębiorstwo może stosunkowo łatwo zorientować się, jaki jest wpływ strony kosztowej na jego wynik finansowy, dzieląc swoje całkowite koszty na koszty stałe i zmienne, a następnie obliczając przeciętny koszt całkowity, przeciętny koszt zmienny i koszt krańcowy. Jednak podjęcie ostatecznej decyzji o wielkości produkcji maksymalizującej zysk i cenie rynkowej będzie wymagało połączenia informacji dotyczącej kosztów z analizą sprzedaży i przychodów. To z kolei wymaga przyjrzenia się strukturze rynku w branży, w której działa przedsiębiorstwo. Zanim w kolejnych rozdziałach przejdziemy do analizy struktur rynku, przeanalizujemy zmienność i rodzaje kosztów, jakie ponosi przedsiębiorstwo w perspektywie długoterminowej.
### Key Concepts and Summary
Wykorzystanie każdego nakładu i czynnika produkcji (np. kapitału lub pracy) wiąże się z koniecznością poniesienia odpowiedniej płatności (np. odsetek lub dywidend za kapitał, jak również płacy za pracę). Koszt wyprodukowania określonego wolumenu produkcji jest pochodną ilości każdego z wykorzystanych czynników produkcji pomnożonej przez związaną z nim płatność.
W perspektywie krótkookresowej możemy podzielić całkowite koszty przedsiębiorstwa na koszty stałe, które trzeba ponieść, zanim cokolwiek zostanie wyprodukowane, i które nie zmieniają się wraz ze wzrostem lub spadkiem wolumenu produkcji, oraz koszty zmienne, które ponoszone są w związku ze zmianami wielkości produkcji. Koszty stałe to koszty utopione: przedsiębiorstwo poniosło je w przeszłości i obecnie nie może ich uniknąć czy zmienić, a więc nie powinny odgrywać żadnej roli w decyzjach ekonomicznych dotyczących przyszłej produkcji lub cen. Koszty zmienne zwykle odzwierciedlają malejące przychody krańcowe, tak więc krańcowy koszt wytwarzania dodatkowych jednostek produkcji rośnie.
Koszt krańcowy obliczamy, dzieląc zmianę kosztu całkowitego (lub zmianę kosztu zmiennego, co przecież oznacza to samo) przez zmianę wielkości produkcji dla określonego wolumenu. Koszt krańcowy zazwyczaj rośnie. Przedsiębiorstwo może porównać koszt krańcowy z dodatkowym przychodem, jaki uzyskuje ze sprzedaży kolejnej jednostki, aby dowiedzieć się, czy ta krańcowa jednostka produkcji zwiększa zysk.
Przeciętny koszt całkowity obliczamy, dzieląc koszty całkowite przez wielkość produkcji dla każdego jej wolumenu. Krzywa przeciętnego kosztu całkowitego ma zazwyczaj kształt litery U. Jeśli przeciętny koszt całkowity jest niższy niż cena rynkowa, przedsiębiorstwo osiąga zyski.
Przeciętny koszt zmienny obliczamy analogicznie, dzieląc koszty zmienne przez wielkość produkcji dla każdego jej wolumenu. Krzywa przeciętnego kosztu zmiennego ma zazwyczaj kształt litery U. Jeśli przeciętny koszt zmienny jest niższy niż cena rynkowa, to przedsiębiorstwo powinno kontynuować produkcję w krótkim okresie (ponieważ traktujemy koszty stałe jako utopione i niemożliwe do zmiany).
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
|
# Teoria podaży, kosztów i struktur rynku
## Produkcja w długim okresie
W długim okresie wszystkie czynniki produkcji (łącznie z kapitałem) są zmienne, a więc nasza funkcja produkcji ma postać:
Rozważmy sytuację przedsiębiorstwa, które zajmuje się przygotowywaniem korespondencji handlowej w różnych językach na zlecenie. Firma zatrudnia maszynistki, które będziemy traktować jako czynnik produkcji – praca. Wykorzystują one komputery, które są kapitałem przedsiębiorstwa. Na początku firma ma niewiele zleceń, tak że tylko jedna maszynistka i jeden komputer są zajęci przez cały dzień. Powiedzmy, że w ciągu jednego dnia firma jest w stanie przygotować pięć dokumentów. Załóżmy teraz, że następnego dnia przedsiębiorstwo otrzyma od dobrego klienta pilne zlecenie na przygotowanie 10 dokumentów. W świecie idealnym firma po prostu zatrudni dwie maszynistki i kupi dwa komputery, by wykonać zadanie w ciągu jednego dnia. To pozwoli wyprodukować dwa razy więcej dokumentów niż normalnie. Tyle że w krótkim okresie przedsiębiorstwo ma określony kapitał trwały, czyli tylko jeden komputer. Poniższa tabela przedstawia tę sytuację:
W krótkim okresie jedynym zmiennym czynnikiem jest praca, więc jedynym sposobem zwiększenia produkcji jest zatrudnienie dodatkowych pracowników. Co może robić druga maszynistka? Co może wnieść do tego specyficznego procesu produkcyjnego? Być może będzie odbierała telefony, co często przeszkadza w maszynopisaniu. A co z trzecim pracownikiem? Może mógłby przynieść kawę dwóm pierwszym. Jeśli liczba maszynistek wzrasta, mogą się one częściej zmieniać przy komputerze, dzięki czemu będą pracować szybciej, bo ich wzrok nie będzie się męczył. W tabeli została wskazana produkcja całkowita analizowanej firmy, ale stosunkowo łatwo możesz obliczyć również produkcję krańcową dla tego przedsiębiorstwa. Zastanów się zatem, w którym momencie (np. po zatrudnieniu której maszynistki) zaczyna się zmniejszać produktywność krańcowa i, co ważniejsze, dlaczego.
W tym przykładzie produktywność krańcowa zaczyna spadać wraz z zatrudnieniem drugiego pracownika. Oczywiście dlatego, że przedsiębiorstwo dysponuje stałym nakładem kapitału. Proces produkcyjny polegający na przygotowywaniu korespondencji handlowej na zlecenie działa najlepiej, kiedy każda maszynistka dysponuje swoim komputerem. Zwiększanie liczby pracowników bez powiększania liczby komputerów gwałtownie zmniejszy produktywność krańcową.
Rozważmy teraz sytuację przedsiębiorstwa w długim okresie. Załóżmy, że zapotrzebowanie na usługi przedsiębiorstwa wzrasta w sposób trwały do 15 dokumentów dziennie. Co można zrobić, aby przedsiębiorstwo działało bardziej wydajnie? Jeśli popyt się potroi, to przedsiębiorstwo może nabyć dwa dodatkowe komputery, co dałoby nam nową funkcję produkcji w krótkim okresie. Została ona przedstawiona w czwartym i piątym wierszu .
Mając do dyspozycji większy zasób kapitału, przedsiębiorstwo może zatrudnić trzech pracowników i każdy z nich będzie generował taki sam produkt krańcowy (5 dokumentów dziennie). Mówiąc bardziej ogólnie – ponieważ wszystkie czynniki produkcji mają zmienny charakter, to długookresowa funkcja produkcji pokazuje efektywny sposób wytwarzania jej dowolnego wolumenu.
### Key Concepts and Summary
W długim okresie nakłady wszystkich czynników produkcji są zmienne. Ponieważ malejąca produktywność krańcowa jest spowodowana stałym nakładem kapitału trwałego, w długim okresie zjawisko to nie występuje. Przedsiębiorstwa mogą wybrać optymalny zasób kapitału, aby wytworzyć pożądany wolumen produkcji.
### Self-Check Questions
### Review Questions
|
# Teoria podaży, kosztów i struktur rynku
## Koszty w długim okresie
Długi okres to horyzont analizy sposobu funkcjonowania przedsiębiorstwa, w którym firma może dostosować nakłady wszystkich czynników produkcji do swoich potrzeb, co automatycznie oznacza, że wszystkie koszty mają zmienny charakter. To, kiedy następuje przejście od krótkiego do długiego okresu (czy mówimy o perspektywie tygodni, miesięcy, czy lat), zależy od specyfiki danego przedsiębiorstwa i branży, w której ono działa – nie ma tu żadnych ścisłych reguł. Jeśli wynajmujesz samochody ciężarowe w swojej firmie transportowej i obowiązuje cię roczna umowa leasingowa, to długi okres należy rozumieć jako „więcej niż rok”, ponieważ po 12 miesiącach nie wiąże cię już bieżąca umową leasingu. Możesz ją w związku z tym renegocjować, zmniejszając lub zwiększając liczbę wynajmowanych samochodów za inną niż dotychczas stawkę najmu. W długim okresie żaden koszt nie ma stałego charakteru, każdy może się zmienić wraz ze zmianą wolumenu produkcji. Przedsiębiorstwo może budować nowe zakłady produkcyjne i kupować nowe maszyny lub zamykać istniejące obiekty i pozbywać się niepotrzebnych składników kapitału. Oznacza to, że w długim okresie przedsiębiorstwo może całkowicie swobodnie wybrać proces produkcji lub inaczej technologię produkcji (ang. ).
W tym kontekście pojęcie technologii (używane jest również pojęcie metoda produkcji) odnosi się do wszystkich alternatywnych sposobów łączenia nakładów w celu uzyskania konkretnej ilości dóbr i usług. Desygnat tego pojęcia jest zatem inny niż w potocznym rozumieniu. Ekonomiści mówią o technologii, nie odnosząc się ani do konkretnego wynalazku (np. tablet), ani do opisanego przez inżynierów sposobu syntezy substancji chemicznych (np. nawozów sztucznych). W języku ekonomistów technologia to konkretny sposób łączenia pracy i kapitału, który umożliwia wytworzenie określonego wolumenu produkcji. Jeśli przedsiębiorstwo zajmuje się przygotowywaniem wykopów pod okablowanie, może wybrać technologię produkcji wykorzystującą głównie pracę (wówczas kopać będą ludzie za pomocą łopat) lub głównie kapitał (wówczas pracę wykona koparka i jej operator). Przedsiębiorstwo będzie poszukiwać i wybierać takie technologie produkcji, które pozwolą na uzyskanie pożądanego poziomu produkcji przy najniższych kosztach. W końcu niższe koszty prowadzą do wyższych zysków, przynajmniej jeśli łączne przychody pozostają niezmienione. Co więcej, przedsiębiorstwo musi mieć na uwadze, że jeśli nie wybierze najtańszej dostępnej technologii, to może zostać wypchnięte z rynku przez konkurentów, którzy będą produkować i sprzedawać takie same lub podobne produkty taniej.
### Wybór technologii produkcji
Przedsiębiorstwo może realizować wiele elementów procesu produkcyjnego (zadań), wykorzystując różne kombinacje siły roboczej i kapitału fizycznego. Na przykład może zatrudniać pracowników, aby odbierali telefony i wiadomości od klientów, lub też zainwestować w zautomatyzowane systemy poczty głosowej i infolinię. Firma może zatrudnić urzędników do prowadzenia dokumentacji i sekretarki do zarządzania teczkami i szafkami na dokumenty lub zainstalować skomputeryzowany system ewidencji, który będzie wymagał mniejszej liczby pracowników, ale większej liczby komputerów i specjalistycznego oprogramowania. Przedsiębiorstwo może zatrudnić pracowników i kupić im wózki widłowe do transportowania surowców i gotowych wyrobów na terenie swojej fabryki lub postawić na roboty i zautomatyzowane pojazdy. Podmioty gospodarcze często zostają postawione przed wyborem między zakupem wielu małych maszyn, które wymagają grupy pracowników do obsługi każdej z nich, a zakupem jednego większego i droższego urządzenia, które wymaga zaangażowania tylko jednego lub dwóch pracowników. Krótko mówiąc, kapitał fizyczny i praca często mogą się wzajemnie zastępować (ekonomiści mówią wówczas o substytucyjnej relacji pracy i kapitału).
Przeanalizujmy przykład władz lokalnych zatrudniających prywatną firmę do sprzątania parków publicznych. W przedstawiono trzy różne kombinacje nakładów siły roboczej i kapitału fizycznego potrzebne do uporządkowania jednego średniej wielkości parku. Pierwsza technologia produkcji ma charakter pracochłonny, oznacza konieczność zatrudnienia wielu pracowników i zaangażowania niewielu urządzeń. Dwie kolejne w znacznie większym stopniu wykorzystują kapitał i maszyny, mają więc bardziej kapitałochłonny charakter. Ponieważ wszystkie trzy metody produkcji pozwalają na osiągnięcie tego samego efektu, czyli uporządkowania parku miejskiego, przedsiębiorstwo nastawione na zysk wybierze technologię, która jest najmniej kosztowna, biorąc pod uwagę wynagrodzenia pracowników i stawki najmu maszyn.
Technologia produkcji 1 wykorzystuje najwięcej pracy i najmniej kapitału (maszyn), natomiast trzecia technologia produkcji polega w najmniejszym stopniu na pracy i w największym na kapitale. przedstawia kształtowanie się łącznych kosztów produkcji dla każdej z technologii, przy różnym poziomie wynagrodzenia pracowników. Ponieważ koszt robocizny wzrasta, przedsiębiorstwo ma silne bodźce do zastępowania pracy kapitałem.
Przykład A ilustruje kształtowanie się kosztów całkowitych przedsiębiorstwa dla wynagrodzenia na poziomie 40 zł i stawki najmu maszyny równej 80 zł. W takiej sytuacji najtańsza jest technologia pierwsza, która w największym stopniu wykorzystuje względnie tanią siłę roboczą. W przykładzie B płace rosną do 55 zł, podczas gdy koszt najmu maszyn się nie zmienia. W takiej sytuacji najtańsza jest technologia druga. Jeśli płace wzrosną do poziomu 90 zł, a koszt maszyn pozostaje niezmieniony, wówczas najtańsza będzie trzecie technologia, która wykorzystuje tylko trzech, bardzo już kosztownych, pracowników.
Ten przykład pokazuje, że gdy nakłady jednego z wykorzystywanych czynników produkcji stają się coraz droższe (w tym przypadku nakłady pracy), przedsiębiorstwa będą próbowały ograniczyć jego zatrudnienie i przestawią działalność na metody, które opierają się na relatywnie tańszych czynnikach produkcji (w naszym przypadku na kapitał). Schemat ten ma charakter uniwersalny i tłumaczy, dlaczego krzywa popytu na pracę (i każdy inny rodzaj nakładów i czynników produkcji) ma nachylenie ujemne. Im wyższe są bowiem koszty pracy, tym częściej przedsiębiorstwa nastawione na zysk będą starały się zastąpić ją kapitałem. Gdy międzynarodowy koncern, taki jak Coca-Cola lub McDonald's, otwiera rozlewnię lub sieć restauracji w kraju o wysokich kosztach pracy, takim jak Stany Zjednoczone, Kanada, Japonia, Francja lub Niemcy, prawdopodobnie użyje kapitałochłonnych technologii. Jednak ten sam pracodawca wykorzysta najpewniej technologie pracochłonne, gdy będzie wytwarzać swoje produkty lub oferować usługi w kraju o niższych kosztach produkcji, takim jak Meksyk, Chiny czy RPA. Jeśli dany proces produkcyjny umożliwia tylko bardzo ograniczoną substytucję pracy kapitałem (tak jak to się dzieje w przypadku przemysłu lekkiego – produkcji odzieży), fabryki będą lokowane głównie w krajach o taniej i bardzo taniej sile roboczej (w Indiach, Pakistanie, Bangladeszu, Wietnamie itd.). Schemat ten tłumaczy również, dlaczego w Polsce powstaje tak wiele przedsiębiorstw oferujących korporacjom międzynarodowym tzw. usługi biznesowe (księgowość, logistyka, informatyka etc.). W naszym kraju wykwalifikowana siła robocza jest wciąż znacznie tańsza niż w krajach tzw. starej UE, Stanach Zjednoczonych czy Wielkiej Brytanii.
### Korzyści skali (przychody ze skali produkcji) i korzyści zakresu (korzyści z produkcji łączonej)
Gdy przedsiębiorstwo określi najmniej kosztowną technologię produkcji, może rozważyć kwestię optymalnej skali produkcji lub podjąć decyzję, jaki wolumen produkcji będzie wytwarzać. W wielu gałęziach pojawia się zjawisko określane przez ekonomistów jako korzyści skali lub rosnące przychody ze skali produkcji. Korzyści skali (ang. ) odnoszą się do sytuacji, w której wraz ze wzrostem wolumenu produkcji przeciętny koszt wytwarzania maleje. To właśnie dzięki temu zjawisku super- i hipermarkety (takie jak działające w Polsce Auchan, Kaufland czy Leclerc), kupując większe partie towaru, są w stanie obniżać cenę płaconą producentom żywności i część tych korzyści – w postaci niższych cen detalicznych – oferować klientom. Małe sklepy z żywnością nie mają takiej siły przetargowej, dlatego zakupy spożywcze są w nich droższe. Podobnie, największe fabryki i zakłady produkcyjne mogą zazwyczaj obniżać koszty produkcji w stosunku do małych i średnich podmiotów.
przedstawia koncepcję korzyści skali, wskazując na to, jak szybko – wraz ze wzrostem rozmiarów produkcji – maleje przeciętny koszt wytworzenia budzika. W przypadku małej fabryki, która tygodniowo produkuje tylko 1 tys. budzików, koszt wytworzenia jednego budzika kształtuje się na poziomie 12 zł (punkt S na wykresie). Dla średniej wielkości fabryki, której tygodniowy wolumen produkcji wynosi 2 tys. budzików, średni koszt wyprodukowania jednego to już tylko 8 zł (punkt M na wykresie). W przypadku dużej fabryki, która produkuje aż 5 tys. budzików tygodniowo, przeciętny koszt wytworzenia jednej sztuki to jedynie 4 zł (punkt L).
Kształt krzywej kosztu przeciętnego na może wydawać się podobny do kształtu krzywych, które zaprezentowaliśmy w tym rozdziale wcześniej. Zwróć jednak uwagę, że jest ona raczej nachylona w dół, niż przybiera kształt litery U. Należy też podkreślić, iż korzyści skali pojawiają się w długim okresie, gdy istnieje możliwość w pełni swobodnego dostosowania nakładu każdego z wykorzystywanych czynników produkcji. Linia na wykresie jest zatem krzywą długookresowego kosztu przeciętnego (LAC), a wcześniej wykreślaliśmy głównie krzywe krótkookresowego kosztu przeciętnego (SATC), w które wbudowane było założenie istnienia niezależnych od rozmiarów produkcji kosztów stałych.
Możemy przedstawić jeszcze jeden ewidentny przykład korzyści skali, który związany jest z przemysłem chemicznym. W fabrykach produkujących chemikalia ze względu na charakter procesów produkcyjnych wykorzystuje się bardzo wiele rur. Koszt materiałów do produkcji rury jest związany z jej obwodem i długością. Powierzchnia przekroju rury determinuje z kolei objętość chemikaliów, które mogą przez nią przepływać w jednostce czasu (w ciągu sekundy lub godziny). Obliczenia w pokazują, że rura, do wyprodukowania której wykorzystuje się dwa razy więcej materiałów (czyli rura o dwukrotnie większym obwodzie) pozwala na tłoczenie w jednostce czasu czterokrotnie większej objętości substancji chemicznych. Dzieje się tak dlatego, że pole powierzchni koła (czyli przekrój rury) wzrasta wraz z kwadratem jego promienia.
Podwojenie kosztów produkcji rury związane z podwojeniem ilości materiałów (np. stali) niezbędnych do jej wytworzenia pozwala firmie chemicznej przetworzyć czterokrotnie więcej produktu. Oczywiście, źródła korzyści skali w zakładzie chemicznym są bardziej złożone, niż sugeruje to proste obliczenie. Inżynierowie projektujący zakłady chemiczne od dawna stosują „zasadę sześciu dziesiątych” – praktyczną regułę, która mówi, że zwiększenie wielkości produkcji w zakładzie chemicznym o np. 1% zwiększy koszty całkowite tylko o 0,6%.
Innym przykładem wykorzystania rosnącej skali i zdywersyfikowanej struktury produkcji w celu obniżenia kosztów są korzyści zakresu, inaczej nazywane korzyściami produkcji łączonej. Korzyści zakresu (ang. economies of scope) odnoszą się do sytuacji, w której łączny koszt produkcji dwóch różnych produktów jest niższy od sumy kosztów ich wytworzenia oddzielnie. Załóżmy np., że wyprodukowanie dwóch dóbr oddzielnie kosztuje odpowiednio 11 i 7 mln zł. Łączna produkcja obu dóbr w takich samych ilościach kosztuje zaś 15 mln zł. Istnieje wiele źródeł korzyści zakresu. Czasem w pojedynczym procesie produkcyjnym można otrzymać kilka różnych wyrobów. Hodowcy bydła i trzody chlewnej sprzedają zarówno mięso, jak i skóry. W istocie hodowla bydła tylko dla skór bądź tylko dla mięsa prawdopodobnie nie byłaby opłacalna. W innych przypadkach przy wytwarzaniu podstawowego wyrobu powstają nieuniknione produkty uboczne, które również można sprzedać (trociny przy produkcji desek). Jeszcze innym źródłem korzyści z produkcji łączonej jest niepełne wykorzystanie czynników wytwórczych. Jeśli firma dystrybuująca materiały budowlane ma wolne miejsce w swoim magazynie, może je odnająć i osiągać z tego tytułu dodatkowy przychód. Korzyści zakresu mogą również wynikać z posiadanego uniwersalnego know-how, które da się zastosować do wytwarzania różnych produktów (producenci soków łatwo mogą rozszerzyć strukturę produkcji na napoje gazowane).
### Kształt krzywych kosztu przeciętnego w długim okresie
Podczas gdy w krótkim okresie przedsiębiorstwa mają ograniczoną swobodę w kształtowaniu nakładu wszystkich czynników produkcji, co oznacza, że znajdują się na konkretnej krzywej krótkookresowego kosztu przeciętnego (odpowiadającej wybranemu poziomowi kosztów stałych), to w długim okresie, gdy wszystkie koszty są zmienne, mogą napotykać bardzo różne krzywe długookresowych kosztów przeciętnych. W konsekwencji krzywa długookresowego kosztu przeciętnego (LAC) (ang. ) w rzeczywistości bazuje na wielu krzywych krótkookresowego przeciętnego kosztu całkowitego (SATC) (ang. ), z których każda reprezentuje jeden określony poziom kosztów stałych. Mówiąc precyzyjniej: długookresowa krzywa kosztu przeciętnego będzie sumą krzywych krótkookresowego kosztu przeciętnego dla każdego poziomu produkcji, które pozwalają na zminimalizowanie kosztów produkcji. Poniższy wykres () pokazuje, w jaki sposób konstruujemy długookresową krzywą kosztu przeciętnego w oparciu o krzywe krótkookresowego kosztu przeciętnego. Na wykresie pojawia się pięć krótkookresowych krzywych całkowitego kosztu przeciętnego. Każda krzywa SATC reprezentuje inny poziom kosztów stałych. Na przykład można sobie wyobrazić SATC1 jako krzywą kosztu dla przedsiębiorstwa posiadającego tylko jedną małą fabrykę, SATC2 jako koszty przeciętne dla tej samej firmy wykorzystującej dwa zakłady produkcyjne, SATC3 jako koszty dla trzech fabryk, zaś SATC4 i SATC5 jako krzywe całkowitych kosztów przeciętnych dla tegoż przedsiębiorstwa posiadającego odpowiednio 4 i 5 zakładów produkcyjnych. Chociaż diagram pokazuje tylko pięć krzywych SATC, przypuszczalnie istnieje nieskończona liczba innych krzywych krótkookresowego przeciętnego kosztu całkowitego, które można narysować między wykreślonymi przez nas krzywymi. Pomyśl o tej grupie krótkookresowych krzywych kosztu przeciętnego jako o reprezentantach różnych możliwości wyboru z punktu widzenia przedsiębiorstwa, które planuje swój poziom inwestycji w kapitał fizyczny. Dzisiejsze decyzje dotyczące inwestycji kapitałowych spowodują ostatecznie powstanie różnych krótkookresowych krzywych całkowitego kosztu przeciętnego w przyszłości.
Każda z pięciu różnych krzywych krótkookresowego kosztu przeciętnego (SATC) reprezentuje inny poziom kosztów stałych, od niskiego w SATC1 do bardzo wysokiego poziomu kosztów stałych w SATC5. Inne krzywe SATC, których nie ma na wykresie, leżą między tymi, które są tutaj narysowane. Krzywa długookresowego kosztu przeciętnego (LAC) pokazuje najniższy koszt wytworzenia każdej wielkości produkcji, przy różnych poziomach kosztów stałych. LAC jest więc utworzona przez dolne krawędzie grupy krzywych SATC. Jeśli przedsiębiorstwo chciałoby wyprodukować ilość Q3, wybrałoby koszty stałe związane z krzywą SATC3.
Długookresowa krzywa kosztu przeciętnego pokazuje koszt wytworzenia dowolnego wolumenu produkcji w długim okresie, gdy przedsiębiorstwo może wybrać pożądany nakład wszystkich czynników produkcji (a tym samym zdeterminować poziom przeciętnego kosztu całkowitego w krótkim okresie). Jeśli przedsiębiorstwo planuje wytwarzać w długim okresie produkcję równą Q3, powinno dokonać inwestycji, które pozwolą mu znaleźć się na SATC3, co umożliwi produkcję wolumenu Q3 po najniższych kosztach. Trzymając się przykładu zilustrowanego wykresem, optymalną wielkością przedsiębiorstwa byłyby wówczas trzy fabryki. Przedsiębiorstwo, które zamierza produkować Q3, popełniłoby błąd, gdyby wybrało poziom kosztów stałych równy SATC2 (dwa zakłady produkcyjne) lub SATC4 (cztery fabryki). Dla SATC2 nakład kapitału przekładający się na koszty stałe jest zbyt niski, aby wyprodukować Q3 po najniższych możliwych kosztach. Produkcja Q3 wymagałaby bardzo wysokich kosztów zmiennych (zatrudniania pracowników na trzy zmiany i w czasie weekendów) i spowodowała, że koszt przeciętny byłby bardzo wysoki. W SATC4 nakład kapitału i tym samym poziom kosztów stałych jest zbyt wysoki, aby wyprodukować Q3 po najniższych możliwych kosztach, w wyniku czego przeciętne koszty byłyby bardzo wysokie. Dla produkcji równej Q3 po prostu nie trzeba budować czwartej fabryki, nie byłaby ona bowiem wykorzystana i zwiększyłaby jedynie koszty przedsiębiorstwa.
Kształt długookresowej krzywej kosztu przeciętnego na jest dość typowy dla większości gałęzi. Lewa część długookresowej krzywej kosztu przeciętnego, która jest nachylona w dół od poziomu produkcji Q1 do Q2 i dalej do Q3, ilustruje rosnące przychody ze skali produkcji (korzyści skali). W tej części długookresowej krzywej kosztów przeciętnych większe rozmiary produkcji prowadzą do niższych kosztów przeciętnych. Pokazaliśmy to wcześniej na .
W środkowej części długookresowej krzywej kosztów przeciętnych, tzn. w jej płaskiej części w okolicach Q3, wyczerpały się korzyści skali. W tej sytuacji dalsze zwiększanie nakładów nie zmienia w zasadzie przeciętnego kosztu produkcji. Nazywamy to stałymi przychodami ze skali produkcji (ang. ). Na tym obszarze krzywej LAC przeciętny koszt produkcji nie zmienia się znacząco, gdy skala produkcji rośnie lub spada. Poniższa wyjaśnia, w jaki sposób malejące przychody krańcowe determinują kształt krzywej długookresowego kosztu przeciętnego.
Zwróć uwagę na to, że prawa część długookresowej krzywej kosztu przeciętnego, biegnąca od poziomu produkcji Q4 do Q5, wskazuje na sytuację, w której wraz ze wzrostem poziomu produkcji rosną również koszty przeciętne. Sytuacja taka określana jest przez ekonomistów jako niekorzyści skali lub malejące przychody ze skali produkcji (ang. ). Przedsiębiorstwo lub fabryka może tak się rozrosnąć, że zarządzanie podmiotem gargantuicznych rozmiarów okazuje się bardzo trudne, co skutkuje niepotrzebnie wysokimi kosztami. I choć kierownictwo wkłada wówczas wiele wysiłku w komunikację z pracownikami oraz między sobą, nie zawsze jest ona skuteczna; brak efektywnej komunikacji prowadzi do zakłóceń we właściwym przepływie materiałów i czynników produkcji. Taką sytuację ekonomiści określają jako menedżerskie niekorzyści skali. W realnym świecie istnieje niewiele przesadnie dużych fabryk, ponieważ przy bardzo wysokich kosztach produkcji nie są one w stanie długo konkurować z mniejszymi, bardziej elastycznymi i tym samym tańszymi zakładami produkcyjnymi. W niektórych gospodarkach planowych, takich jak gospodarka Związku Radzieckiego, np. elektrownie były tak duże, że wykazywały rażącą nieefektywność, ale mogły nadal działać, ponieważ nie miały konkurencji.
Niekorzyści skali mogą również występować w całym przedsiębiorstwie, a nie tylko w pojedynczej fabryce. „Efekt Lewiatana” może uderzyć w przedsiębiorstwa, które stają się zbyt duże, aby działać efektywnie. Firmy, które będą potrafiły wyciągnąć wnioski z takiej sytuacji, ograniczą skalę działalności i zmniejszą koszty przeciętne, obniżając wolumen swojej produkcji.
### Jakie czynniki determinują liczbę i rozmiary przedsiębiorstw działających w danej gałęzi
Kształt długookresowej krzywej kosztu przeciętnego ma wpływ na to, ile przedsiębiorstw będzie konkurować w branży i czy będą to podmioty gospodarcze tej samej wielkości czy różnych rozmiarów. Załóżmy, że gałąź zajmująca się produkcją artykułów AGD sprzedaje rocznie milion zmywarek w cenie nieznacznie przekraczającej 1,5 tys. zł za sztukę. Długookresowa krzywa kosztu przeciętnego z wyraźnie zaznaczonym minimum jest przedstawiona na panelu (a) . Punkt minimum krzywej LAC występuje przy wolumenie produkcji równym 10 tys. sztuk. Rynek zmywarek będzie się zatem składał ze 100 przedsiębiorstw tej samej wielkości. Gdyby któreś przedsiębiorstwo chciało dostarczać na rynek tylko 5 tys. zmywarek rocznie lub dla odmiany postanowiło zwiększyć podaż do 20 tys. zmywarek rocznie, koszty przeciętne produkcji w takich zakładach znacznie przekroczyłyby 1,5 tys. zł i te przedsiębiorstwa nie byłyby w stanie zaoferować konkurencyjnych cen rynkowych (czyli takich, które tylko nieznacznie przekraczają 1,5 tys. zł).
Na panelu (b) widać bardziej powszechny przypadek, gdy krzywa LAC ma płaski obszar stałych przychodów ze skali produkcji. W takiej sytuacji każde przedsiębiorstwo, które rocznie wytworzy między 5 tys. a 20 tys. zmywarek, będzie w stanie produkować przy mniej więcej tym samym poziomie kosztu przeciętnego. Biorąc pod uwagę to, że rynek będzie potrzebował miliona zmywarek rocznie w cenie nieznacznie wyższej od 1,5 tys. zł, może na nim funkcjonować od 200 producentów (tj. milion zmywarek będzie dostarczone przez przedsiębiorstwa produkujące po 5 tys. sztuk) do 50 (każdy z producentów dostarczy 20 tys. sztuk). Producenci będą zatem różnili się wielkością: od małych podmiotów wytwarzających 5 tys. sztuk rocznie do relatywnie dużych, z produkcją na poziomie 20 tys. sztuk. Przedsiębiorstwa z produkcją poniżej 5 tys. sztuk lub powyżej 20 tys. sztuk nie sprostają konkurencji, ponieważ ich koszty przeciętne będą zbyt wysokie. Jeśli zatem w jakiejś gałęzi funkcjonują wyłącznie przedsiębiorstwa o zbliżonych rozmiarach, można podejrzewać, że ich krzywe kosztu przeciętnego w długim okresie mają zbliżony kształt i wyraźnie zaznaczone minimum (panel (a) na ). Natomiast współistnienie małych i dużych przedsiębiorstw jest konsekwencją specyficznego kształtu ich krzywych LAC, z relatywnie dużym obszarem o stałych przychodach ze skali produkcji (panel (b) na – krzywa LAC z płaskim dnem).
Stałe przychody ze skali produkcji zaznaczone jako płaskie dno krzywej LAC wykreślonej na panelu (b) na mogą być interpretowane na dwa sposoby. Zgodnie z pierwszą interpretacją, niezależnie od tego, czy w fabryce wytwarzanych jest 5 tys., czy też 20 tys. zmywarek rocznie, koszt przeciętny produkcji jednej sztuki jest taki sam. Natomiast druga interpretacja zakłada, że wszystkie przedsiębiorstwa dysponują fabrykami o zdolnościach produkcyjnych na poziomie 5 tys. zmywarek rocznie, tylko niektóre z nich mają jeden zakład, a inne aż cztery. Choć oba warianty występują w realnym świecie, to znacznie częściej występuje sytuacja, w której fabryki wytwarzające określone dobro mają mniej więcej te same zdolności produkcyjne, natomiast przedsiębiorstwa różnią się od siebie liczbą wykorzystywanych fabryk. Mimo wszystko bowiem, ze względu na malejące przychody krańcowe charakterystyczne dla większości procesów produkcyjnych, znacznie rzadsza jest sytuacja, w której fabryki o tak różnej skali rocznej produkcji (5 tys. i 20 tys. sztuk) będą charakteryzowały się tymi samymi kosztami przeciętnymi. Wzrost kosztów przeciętnych powyżej określonego wolumenu produkcji (w naszym przypadku powyżej 20 tys. zmywarek rocznie) wynika zaś najczęściej z menedżerskich niekorzyści skali. Im więcej bowiem zakładów produkcyjnych posiada przedsiębiorstwo, tym większe są koszty koordynacji procesu produkcyjnego między nimi.
W dotychczasowych przykładach przyjmowaliśmy, że zapotrzebowanie na rynku jest dość duże (milion dóbr) w porównaniu z produkcją w punkcie minimum długookresowej krzywej kosztu przeciętnego (5 tys., 10 tys. lub 20 tys. sztuk). W takiej sytuacji rynek jest otwarty na konkurencję między wieloma przedsiębiorstwami. Co się jednak stanie, jeśli minimum długookresowej krzywej kosztu przeciętnego kształtuje się dla produkcji na poziomie 10 tys. sztuk rocznie i właśnie takie (albo wręcz nieco niższe) jest rynkowe zapotrzebowanie?
Wróć do panelu (a) na , gdzie minimum długookresowej krzywej kosztu przeciętnego wynosi 10 tys., ale teraz wyobraź sobie, że liczba zmywarek, na które potencjalni klienci zgłaszają zapotrzebowanie przy cenie nieco wyższej od 1,5 tys. zł, wynosi tylko 30 tys. sztuk. W tej sytuacji łączna liczba przedsiębiorstw na rynku wyniosłaby trzy. Taką garstkę przedsiębiorstw na rynku nazywamy oligopolem, a rozdział dotyczący konkurencji monopolistycznej i oligopolu omawia strategie konkurencyjne, które mogą mieć zastosowanie, gdy rywalizuje ze sobą tak niewiele przedsiębiorstw.
Możemy mieć do czynienia z jeszcze bardziej interesującą sytuacją. Ponownie rozważmy panel (a) na , z minimum krzywej LAC na poziomie produkcji równej 10 tys. sztuk, ale jednocześnie przyjmijmy, że zapotrzebowanie rynkowe wynosi tylko 5 tys. sztuk. (Dla uproszczenia wyobraź sobie, że ten popyt jest bardzo nieelastyczny, więc nie zmienia się wraz ze zmianami ceny.) W tej sytuacji rynek może równie dobrze skończyć z jednym przedsiębiorstwem – monopolistą – produkującym wszystkie 5 tys. sztuk. Gdyby jakiekolwiek przedsiębiorstwo próbowało przełamać ten monopol, produkując mniej niż 5 tys. sztuk, miałoby wyższy koszt przeciętny, a więc nie byłoby w stanie zaakceptować cen rynkowych bez ponoszenia strat. Inne specyficzne cechy rynku, na którym działa tylko jeden sprzedawca, omawia rozdział poświęcony monopolom.
Zatem kształt długookresowej krzywej kosztów przeciętnych wskazuje, czy na rynku będą konkurowały przedsiębiorstwa tej samej, czy różnej wielkości. Jeśli krzywa LAC ma wyraźnie zaznaczone minimum, wówczas przedsiębiorstwa na rynku będą mniej więcej tej samej wielkości, ale gdy krzywa LAC ma płaskie dno, czyli obszar o stałych przychodach ze skali produkcji, wówczas przedsiębiorstwa na rynku mogą mieć różne rozmiary.
Relacja między wielkością produkcji wyznaczającą minimum długookresowej krzywej kosztu przeciętnego a zapotrzebowaniem rynkowym przy cenie zbliżonej do minimum kosztu przeciętnego w długim okresie pozwoli przewidzieć, jaki będzie charakter konkurencji w danej gałęzi. Jeśli zapotrzebowanie znacznie przekracza wielkość produkcji w minimum LAC, wówczas będzie ze sobą konkurować wiele przedsiębiorstw. Jeśli zapotrzebowanie jest tylko nieznacznie wyższe niż wielkość produkcji przy minimum LAC, konkurencja ograniczy się do kilku przedsiębiorstw. Jeżeli zapotrzebowanie jest mniejsze niż wolumen produkcji przy minimum LAC, prawdopodobnie efektem będzie monopol.
### Zmieniające się wzorce długoterminowego kosztu przeciętnego
Nowe technologie i metody produkcji mogą przesunąć długookresową krzywą kosztów przeciętnych w sposób, który zmieni rozkład i wielkość przedsiębiorstw w danej branży.
Przez większą część XX w. zmiany technologii faworyzowały dużych producentów. Na przykład linia montażowa lub duży dom towarowy pozwalały obniżyć koszty jednostkowe produkcji samochodów lub sprzedaży żywności i innych artykułów pierwszej potrzeby. Korzyści skali zdawały się występować dla coraz większego odcinka krzywej długookresowego kosztu przeciętnego.
Natomiast najnowsze technologie i metody produkcyjne nie prowadzą nieuchronnie do zwiększenia średniej wielkości przedsiębiorstw. Na przykład w ostatnich latach pojawiły się nowe sposoby wytwarzania energii elektrycznej na mniejszą skalę. Tradycyjne elektrownie węglowe musiały produkować od 300 do 600 MW energii, aby w pełni wykorzystać korzyści skali. Wysoko wydajne turbiny do produkcji energii elektrycznej ze spalania gazu ziemnego mogą wytwarzać energię elektryczną po konkurencyjnej cenie dla wolumenu na poziomie 100 MW lub mniejszym. Te nowe technologie stwarzają mniejszym przedsiębiorstwom możliwość wytwarzania energii elektrycznej równie wydajnie, jak to ma miejsce w dużych i bardzo dużych podmiotach. Innym przykładem zmiany technologicznej prowadzącej do zmniejszania rozmiarów zakładów przemysłowych może być branża oponiarska. Tradycyjna fabryka opon średniej wielkości produkuje ok. 6 mln wyrobów rocznie. Jednak w 2000 r. włoska firma Pirelli otworzyła nową fabrykę opon, w której wykorzystywanych jest wiele robotów i zautomatyzowanych ciągów produkcyjnych. Fabryka opon Pirelli produkowała tylko około miliona opon rocznie, ale po niższych kosztach przeciętnych niż tradycyjna fabryka opon średniej wielkości.
W ostatnich latach rosły kontrowersje dotyczące tego, czy nowe technologie informacyjne i komunikacyjne doprowadzą do wzrostu, czy do zmniejszenia rozmiarów przedsiębiorstw. Z jednej strony nowe technologie mogą ułatwić małym podmiotom wyjście poza ich lokalny obszar geograficzny i znalezienie klientów w całym regionie, kraju, a nawet poza jego granicami. To może sprzyjać zwiększeniu się liczby małych podmiotów. Z drugiej strony być może nowe technologie informacyjno-komunikacyjne stworzą rynki, na których „zwycięzca bierze wszystko”, a więc jedno duże przedsiębiorstwo będzie zmierzało do kontrolowania dużej części całkowitej sprzedaży, tak jak zrobił to Microsoft, produkując oprogramowanie dla komputerów osobistych, lub Amazon, który zorganizował księgarnie internetowe. Co więcej, ulepszone technologie informacyjne i komunikacyjne mogą usprawnić zarządzanie wieloma różnymi zakładami i operacjami w skali całego kraju lub na całym świecie, a tym samym ułatwić działanie większym przedsiębiorstwom. Ta walka między małymi i dużymi podmiotami gospodarczymi będzie przedmiotem wielkiego zainteresowania ekonomistów, biznesmenów i decydentów politycznych w ciągu kolejnej dekady XXI w.
### Key Concepts and Summary
Technologia (albo metoda) produkcji, to termin, jakim określa się konkretną kombinację nakładów czynników produkcji (przede wszystkim pracy i kapitału), pozwalającą na wytworzenie danego wolumenu produkcji.
W długim okresie przedsiębiorstwa mogą w dowolny sposób zmieniać technologię produkcji, więc wszystkie koszty mają charakter zmienny. Przedsiębiorstwa, wybierając technologię (metodę produkcji), dążą do zminimalizowania kosztów całkowitych, będą więc zastępować nakłady drogich czynników produkcji tańszymi.
Pojęcie korzyści skali (rosnących przychodów ze skali produkcji) odnosi się do sytuacji, w której wraz ze wzrostem rozmiarów produkcji spada długookresowy koszt przeciętny. Stałe przychody ze skali to z kolei sytuacja, w której koszt przeciętny jest niezależny od wolumenu produkcji. Niekorzyści skali oznaczają wzrost kosztu przeciętnego wraz ze wzrostem rozmiarów produkcji.
Długookresowa krzywa kosztu przeciętnego (LAC) wskazuje przedsiębiorstwom najniższy możliwy koszt wytworzenia jednostki produkcji dla jej każdych rozmiarów i umożliwia tym samym wybór optymalnej technologii. Ujemne nachylenie LAC wskazuje na korzyści skali; jej płaski odcinek – na stałe przychody ze skali produkcji, zaś część nachylona w górę – na niekorzyści skali. Jeśli długookresowa krzywa kosztu przeciętnego ma wyraźnie zaznaczone minimum, to wszystkie przedsiębiorstwa konkurujące w branży powinny mieć te same rozmiary, czyli wytwarzać ten sam, wskazany przez minimum LAC, wolumen produkcji. Jeśli jednak LAC ma odcinek wskazujący na stałe przychody ze skali produkcji (płaskie dno), oznacza to, że koszt przeciętny nie zmienia się dla szerokiego zakresu rozmiarów produkcji; przedsiębiorstwa w gałęzi będą miały różne rozmiary, czyli będą dostarczać na rynek zróżnicowane ilości dóbr i usług. Rozmiary popytu rynkowego w połączeniu z typowym dla danej gałęzi kształtem długookresowej krzywej kosztu przeciętnego określą, ile przedsiębiorstw będzie działało w tej branży.
Jeśli zapotrzebowanie na dany produkt na rynku jest znacznie większe niż wielkość produkcji wyznaczająca minimum LAC, to w gałęzi będzie konkurować wiele przedsiębiorstw. Jeżeli zapotrzebowanie jest mniejsze niż wielkość produkcji wskazana przez minimum LAC, wówczas branża najprawdopodobniej zostanie zmonopolizowana.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
|
# Konkurencja doskonała
## Wprowadzenie do rozdziału
Większość przedsiębiorstw musi zaakceptować dwa istotne fakty, które determinują ich działalność. Po pierwsze – nikt nie musi kupować wytwarzanych przez nich produktów. Po drugie – nawet klienci, którzy chcieliby nabyć te produkty, mogą zwrócić się do konkurentów. Firmy, które działają na rynkach doskonale konkurencyjnych, w największym stopniu mierzą się z tą rzeczywistością. W niniejszym rozdziale dowiesz się, w jaki sposób takie przedsiębiorstwa podejmują decyzje o tym, ile produkować, czy pozostać na rynku, jaki zysk uda się osiągnąć i wiele innych. Poszczególne branże (czyli grupy sprzedawców wytwarzające ten sam lub podobny produkt) różnią się między sobą pod względem liczby działających przedsiębiorstw, kosztów rozpoczęcia działalności oraz rodzaju sprzedawanego produktu (na ile jest on postrzegany przez potencjalnych nabywców jako standardowy). Modele opisujące sposób postępowania przedsiębiorstw w takich sektorach ekonomiści nazywają strukturami rynku (ang. ). W tym rozdziale skupiamy się na strukturze rynku nazywanej konkurencją doskonałą. W kolejnych przyjrzymy się innym modelom: monopolowi, konkurencji monopolistycznej i oligopolowi. |
# Konkurencja doskonała
## Specyfika konkurencji doskonałej jako struktury rynku
Przedsiębiorstwa działają w ramach konkurencji doskonałej (ang. ), gdy w ich gałęzi występują następujące warunki: (1) bardzo dużo przedsiębiorstw wytwarza identyczny produkt (produkty); (2) istnieje wielu nabywców kupujących produkt oraz wielu sprzedawców sprzedających produkt; (3) nabywcy i sprzedawcy mają wszystkie istotne informacje, aby podejmować racjonalne decyzje dotyczące kupowanego i sprzedawanego produktu; i wreszcie (4) – przedsiębiorstwa mogą wchodzić na rynek i opuszczać go bez ograniczeń, nie ponosząc przy tym żadnych kosztów – innymi słowy, nie istnieją bariery wejścia i wyjścia z gałęzi.
Przedsiębiorstwo doskonale konkurencyjne (ang. ) jest określane jako biorca ceny (w literaturze funkcjonuje również określenie cenobiorca) (ang. ), ponieważ presja konkurentów zmusza go do zaakceptowania obowiązującej na rynku ceny równowagi. Jeśli firma na rynku doskonale konkurencyjnym podniesie cenę swojego produktu nawet o grosz, nie będzie w stanie nic sprzedać, bo potencjalni nabywcy sięgną po tańsze produkty oferowane przez konkurentów. Kiedy plantator pszenicy, jak wspomnieliśmy w , chce znać aktualną cenę pszenicy, musi to sprawdzić, korzystając z ogólnodostępnych informacji podawanych przez media. W podobnej sytuacji jest każdy podmiot, który chce kupić pszenicę. Jeśli zaoferuje sprzedawcy cenę, która jest niższa od rynkowej, nikt nie będzie mu chciał sprzedać nawet kilograma. Cenę rynkową określają podaż i popyt na całym rynku, a nie decyzje pojedynczego rolnika lub nabywcy pszenicy. Oznacza to jednak, że ze względu na relatywnie niewielką ilość lub liczbę produktów oferowaną przez pojedyncze przedsiębiorstwo działające na tym rynku w stosunku do całej podaży rynkowej, może ono zwiększać lub zmniejszać produkcję bez zauważalnego wpływu na całkowitą wielkość podaży i cenę rynkową charakteryzujące konkretną gałąź.
Tak jak wskazaliśmy powyżej, struktury rynku, w tym konkurencja doskonała, to modele opisujące działanie realnych przedsiębiorstw, ale – co jest charakterystyczne dla modeli – pokazują one pewien uproszczony obraz rzeczywistości. Producenci w bardzo wielu gałęziach gospodarki w istocie mają do czynienia z wieloma konkurencyjnymi firmami sprzedającymi bardzo podobne towary i często muszą działać jako cenobiorcy. Ekonomiści zwykle używają rynków rolnych jako przykładu gałęzi doskonale konkurencyjnych. Te same zboża uprawiane przez różnych rolników są postrzegane przez nabywców jako produkt całkowicie standardowy (choć oczywiście pewne różnice pomiędzy poszczególnymi plantatorami, np. w wilgotności ziarna, mogą się pojawić). Zgodnie z danymi publikowanymi przez Główny Urząd Statystyczny cena za tonę pszenicy konsumpcyjnej w sierpniu 2021 r. kształtowała się na poziomie ok. 800 zł, z bardzo niewielkimi różnicami w poszczególnych województwach odzwierciedlającymi zróżnicowanie kosztów transportu zboża do punktów skupu. Plantator pszenicy, który próbowałby ją sprzedawać po 900 zł za tonę, nie znalazłby nabywców. Przedsiębiorstwo doskonale konkurencyjne nie będzie sprzedawać także poniżej ceny równowagi. Dlaczego miałoby to robić, skoro może zbyć wszystko po wyższej cenie? Czy oferowanie pszenicy w cenie 700 zł za tonę miałoby jakikolwiek sens, jeśli właściciel elewatora za tę samą ilość zapłaci 800 zł? Innymi przykładami rynków rolnych, które działają w warunkach zbliżonych do doskonale konkurencyjnych, są małe przydrożne targowiska produktów rolnych i drobni rolnicy ekologiczni.
Niniejszy rozdział prezentuje proces decyzyjny, który determinuje wielkość produkcji nastawionego na zysk przedsiębiorstwa działającego w warunkach konkurencji doskonałej. Firmy biorą pod uwagę swoje koszty, które omówiliśmy w . W krótkim okresie przedsiębiorstwo doskonale konkurencyjne będzie poszukiwać takiej wielkości produkcji, przy której zyski są największe lub, jeśli osiągnięcie zysków nie jest możliwe, straty są najmniejsze.
W długim okresie zyski ekonomiczne przyciągną konkurencję, gdyż na rynek wejdą zwabione nimi kolejne przedsiębiorstwa. Z kolei straty ekonomiczne spowodują, że niektóre przedsiębiorstwa wyjdą z rynku. Ostatecznie rynki doskonale konkurencyjne osiągną długookresową równowagę, gdy zyski ekonomiczne każdego z działających na nim podmiotów zostaną zredukowane do zera. Wówczas żadne nowe przedsiębiorstwa nie będą chciały wejść na rynek, a istniejące przedsiębiorstwa nie będą chciały z niego wyjść.
### Kluczowe pojęcia i podsumowanie
Przedsiębiorstwo doskonale konkurencyjne jest biorcą ceny, co oznacza, że musi zaakceptować rynkową cenę równowagi, po której sprzedaje swoje towary. Jeśli firma będzie chciała sprzedawać dobro lub usługę po cenie nawet niewiele wyższej od rynkowej, nikt nie zechce niczego od niej kupić. Na doskonale konkurencyjnym rynku działają tysiące sprzedawców, jest również bardzo wielu nabywców, produkty są traktowane przez konsumentów jako identyczne (homogeniczne) i nie ma żadnych barier utrudniających wejście do tej gałęzi i jej opuszczenie. Analiza sytuacji przedsiębiorstwa w krótkim okresie oznacza, że nakłady niektórych czynników produkcji są stałe. Długookresowa równowaga w gałęzi doskonale konkurencyjnej występuje wtedy, gdy zyski ekonomiczne wszystkich funkcjonujących w niej przedsiębiorstw spadły do zera. Oznacza to, że nie ma żadnych bodźców ani do wejścia do niej, ani do jej opuszczenia.
Konkurencja doskonała to model opisujący rynek (gałąź gospodarki), na którym funkcjonuje bardzo wielu sprzedawców i nabywców, nie ma żadnych barier wejścia i wyjścia na ten rynek (co oznacza, że rozpoczęcie i zakończenie działalności nie wiąże się z żadnym kosztem), produkty będące przedmiotem transakcji są identyczne niezależnie od oferenta, a wszyscy producenci są biorcami cen.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
|
# Konkurencja doskonała
## Jak przedsiębiorstwa doskonale konkurencyjne podejmują decyzje o produkcji
Przedsiębiorstwo doskonale konkurencyjne (ang. ) musi podjąć tylko jedną ważną decyzję – jaką ilość swoich produktów wytworzyć. Aby zrozumieć ten problem decyzyjny, rozważ alternatywny sposób zapisu podstawowej definicji zysku (ang. ):
Przedsiębiorstwo doskonale konkurencyjne nie ma wpływu na rynkową cenę swoich produktów i musi zaakceptować tę wyznaczoną przez rynkowe popyt i podaż. Z drugiej strony może ono sprzedać dowolną liczbę swoich dóbr lub usług bez konieczności obniżania ceny. Oznacza to, że firma doskonale konkurencyjna ma do czynienia z doskonale elastyczną krzywą popytu na swój produkt (tym samym jest to linia prosta, równoległa do poziomej osi układu współrzędnych). Nabywcy są skłonni kupić dowolną liczbę jednostek produktu po cenie rynkowej. Kiedy doskonale konkurencyjne przedsiębiorstwo decyduje, jaką ilość towaru wyprodukować, to ta ilość – wraz z rynkową ceną sprzedawanego produktu i cenami kupowanych czynników wytwórczych – określi utarg całkowity, koszty całkowite i ostatecznie poziom zysków firmy.
### Wyznaczanie maksymalnego zysku dzięki porównaniu utargu całkowitego i kosztu całkowitego
Przedsiębiorstwo doskonale konkurencyjne może sprzedać dowolną ilość swojego produktu, o ile akceptuje jego cenę rynkową. Jak łatwo zauważyć, choćby dzięki równaniu zapisanemu powyżej, utarg całkowity zależy od sprzedanej ilości i pobieranej ceny. Jeśli firma sprzeda większą ilość, utarg całkowity wzrośnie. Jeśli cena rynkowa wzrasta, utarg całkowity również wzrasta, bez względu na wielkość sprzedaży. Analizę procesu podejmowania decyzji determinującego wielkość produkcji firmy działającej na doskonale konkurencyjnym rynku przeprowadzimy na przykładzie małego przedsiębiorstwa ogrodniczego, które produkuje maliny i sprzedaje je w postaci zamrożonej po 4 zł za opakowanie. Sprzedaż jednego opakowania owoców przyniesie 4 zł, dwóch opakowań 8 zł, trzech opakowań 12 zł itd. Jeśli cena mrożonych malin podwoi się, wówczas sprzedaż jednego opakowania malin przyniesie 8 zł, dwóch opakowań 16 zł, trzech opakowań 24 zł itd.
pokazuje utarg całkowity (ang. ) i koszty całkowite (ang. ) producenta malin, które w formie graficznej (odpowiednich krzywych) znajdują się także na . Oś pozioma pokazuje liczbę opakowań mrożonych malin. Oś pionowa przedstawia zarówno utarg całkowity, jak i koszty całkowite mierzone w złotych. Krzywa kosztu całkowitego przecina oś pionową przy wartości, która określa poziom kosztów stałych, a następnie rośnie wraz ze wzrostem rozmiarów produkcji (ma nachylenie dodatnie). Wszystkie wykreślone krzywe kosztów charakteryzują się zależnościami, które omówiliśmy w .
Na podstawie krzywych utargu całkowitego i kosztu całkowitego przedsiębiorstwo doskonale konkurencyjne, takie jak plantator malin, może obliczyć wielkość produkcji, która zapewni mu najwyższy poziom zysku. Dla dowolnej wielkości produkcji utarg całkowity pomniejszony o koszt całkowity wyznacza wynik finansowy przedsiębiorstwa (zysk lub stratę). Jednym ze sposobów określenia najbardziej opłacalnej wielkości produkcji jest sprawdzenie, przy jakim wolumenie utarg całkowity przewyższa koszt całkowity o największą wartość. pokazuje utarg całkowity, koszt całkowity i zysk na podstawie danych z . Pionowa odległość między utargiem całkowitym a kosztem całkowitym to zysk. Na przykład, przy , i , różnica pomiędzy utargiem całkowitym i kosztem całkowitym wynosi 75, co jest wartością funkcji zysku dla tej wielkości produkcji. Firma nie osiąga zysku przy każdym poziomie produkcji. W naszym przykładzie koszty całkowite przekraczają utargi całkowite przy poziomach produkcji od 0 do mniej więcej 30, a więc w tym zakresie produkcji przedsiębiorstwo będzie ponosić straty. Przy wielkościach produkcji od 40 do 100 utargi całkowite przewyższają koszty całkowite, więc przedsiębiorstwo osiąga zyski. Natomiast przy każdej wielkości produkcji większej niż 100 całkowite koszty ponownie przekraczają całkowite utargi i przedsiębiorstwo notuje coraz większe straty. Zysk całkowity został zaprezentowany w ostatniej kolumnie . Maksymalny zysk występuje przy produkcji między 70 a 80 i wynosi 90 zł.
Wyższa cena oznaczałaby, że utarg całkowity byłby większy dla każdego poziomu sprzedaży. Niższa cena oznaczałaby zaś, że utarg całkowity byłby mniejszy dla każdej wielkości sprzedaży. Co się stanie, jeśli cena spadnie na tyle, że linia utargu całkowitego znajdzie się poniżej krzywej kosztów całkowitych, czyli dla każdego poziomu produkcji łączne koszty będą wyższe niż utargi? W tym przypadku jedyne, co firma może zrobić, to zaakceptować straty. Jednak przedsiębiorstwo maksymalizujące zysk będzie preferować taką wielkość produkcji, dla której utarg całkowity jest najbliższy kosztom całkowitym, a zatem straty są najmniejsze.
(W kolejnych podrozdziałach wskazane zostaną warunki, w których jedynym rozsądnym rozwiązaniem jest zamknięcie przedsiębiorstwa ponoszącego straty).
### Porównanie utargu krańcowego i kosztów krańcowych
Analiza wykorzystująca utarg całkowity i koszt całkowity, którą opisaliśmy powyżej, nie jest jedynym sposobem określania poziomu produkcji maksymalizującego zysk. W tej sekcji przedstawiamy alternatywne podejście, które wykorzystuje utarg krańcowy i koszt krańcowy.
Przedsiębiorstwa często nie mają niezbędnych danych, aby wyznaczyć krzywą kosztów całkowitych dla wszystkich poziomów produkcji. Nie mogą być pewne, jak wyglądałyby ich koszty całkowite, gdyby, powiedzmy, podwoiły produkcję lub zmniejszyły ją o połowę, ponieważ nigdy nie zdecydowały się na tak daleko idącą zmianę. Zamiast tego przedsiębiorstwa eksperymentują. Produkują nieco większą lub mniejszą ilość i obserwują, jak wpływa to na zyski. Z ekonomicznego punktu widzenia to praktyczne podejście do problemu maksymalizacji zysków oznacza zbadanie, w jaki sposób niewielkie zmiany produkcji wpływają na utarg krańcowy i koszt krańcowy.
przedstawia krzywe utargu krańcowego i kosztu krańcowego w oparciu o wartości przychodu całkowitego i kosztu całkowitego z . Krzywa utargu krańcowego (ang. ) przedstawia dodatkowy przychód uzyskany ze sprzedaży kolejnego dobra lub usługi. Jak wspomniano wcześniej, przedsiębiorstwo doskonale konkurencyjne ma do czynienia z doskonale elastyczną krzywą popytu na swój produkt – co oznacza, że krzywa popytu przedsiębiorstwa jest linią poziomą leżącą na wysokości ceny rynkowej. Oznacza to również, że krzywa utargu krańcowego przedsiębiorstwa pokrywa się z linią jego popytu: za każdym razem, gdy konsument chce nabyć dodatkową jednostkę produkcji, przedsiębiorstwo sprzedaje ją po cenie rynkowej, zaś przychód wzrasta o stałą kwotę równą tej cenie. W naszym przykładzie za każdym razem, gdy przedsiębiorstwo sprzedaje opakowanie mrożonych malin, utarg rośnie o 4 zł. Wartości (w zł) przychodu całkowitego i przychodu krańcowego plantatora malin prezentuje . Powyższa zależność między utargiem krańcowym a ceną dotyczy tylko przedsiębiorstw działających w warunkach konkurencji doskonałej i będących biorcami cen, dla których:
Wzór na utarg krańcowy:
Zauważ, że utarg krańcowy nie zmienia się, gdy firma produkuje więcej. Dzieje się tak, ponieważ w warunkach doskonałej konkurencji cena jest określana przez rynkowe podaż i popyt. Cena nie zmienia się, gdy plantator zwiększa produkcję i sprzedaż (przy założeniu, że ze względu na stosunkowo niewielki rozmiar tej i innych firm produkujących mrożone maliny zwiększenie jej podaży nie ma wpływu na całkowitą podaż na rynku, na którym ustalana jest cena).
Ponieważ przedsiębiorstwo doskonale konkurencyjne jest biorcą ceny (cenobiorcą) może sprzedawać dowolną ilość po cenie ustalonej na rynku. Koszt krańcowy (), czyli koszt dodatkowej sprzedanej jednostki, obliczamy, dzieląc zmianę kosztu całkowitego przez zmianę ilości. Wzór na koszt krańcowy jest następujący:
W przykładzie z producentem malin z , i koszt krańcowy na początku spada wraz ze wzrostem produkcji z 10 do 20, a później również 30 i 40 opakowań malin – jest to odzwierciedleniem rosnących przychodów krańcowych, co nie jest rzadkością przy niskich poziomach produkcji. Jednak w pewnym momencie koszty krańcowe zaczynają rosnąć, co znów odzwierciedla dość typową zależność związaną z malejącymi przychodami krańcowymi wraz ze wzrostem produkcji powyżej pewnego poziomu. Jeśli przedsiębiorstwo produkuje ilość, dla której , np. 40 lub 50 opakowań malin, może zwiększyć zysk poprzez zwiększenie produkcji, ponieważ utarg krańcowy przekracza wówczas koszt krańcowy. Jeśli przedsiębiorstwo produkuje ilość, dla której , np. 90 lub 100 opakowań, może zwiększyć zysk poprzez zmniejszenie produkcji, ponieważ spadek kosztu krańcowego będzie większy niż spadek utargu krańcowego. Wielkość produkcji maksymalizująca zysk występuje, gdy (lub blisko tego punktu).
W niniejszym przykładzie krzywe przychodu krańcowego i kosztu krańcowego (ang. ) przecinają się przy cenie 4 zł i produkcji na poziomie 80 opakowań. Gdyby nasz plantator zaczął od produkcji na poziomie 60 opakowań, a następnie eksperymentował ze zwiększeniem produkcji do 70, utarg krańcowy związany ze wzrostem produkcji i sprzedaży przewyższyłby koszt krańcowy – a więc zysk by się zwiększył. Plantator malin miałby zatem motywację do rozwijania produkcji. Przy poziomie produkcji równym 80 koszt krańcowy i utarg krańcowy są sobie równe, więc wzrost produkcji do tego poziomu nie wpływa na wielkość zysku, jest on taki sam jak dla produkcji na poziomie 70 opakowań. Gdyby jednak nasz przedsiębiorca dalej eksperymentował ze zwiększaniem produkcji z 80 do 90 opakowań, zauważyłby, że koszty krańcowe wzrostu produkcji są większe niż utargi krańcowe, a więc zyski spadają.
Punkt maksymalizacji zysku dla przedsiębiorstwa doskonale konkurencyjnego występuje przy poziomie produkcji, dla którego utarg krańcowy jest równy kosztowi krańcowemu, tzn. gdy . Na wykresie takim poziomem produkcji jest .
Ponieważ utarg krańcowy przedsiębiorstwa doskonale konkurencyjnego jest równy cenie rynkowej (P), warunek maksymalizacji zysku dla przedsiębiorstwa doskonale konkurencyjnego możemy również określić jako konieczność wytwarzania wielkości produkcji, dla której .
### Obliczanie zysków i strat na podstawie krzywej kosztów przeciętnych
Czy produkcja na poziomie, który zrównuje utarg krańcowy i koszt krańcowy (zgodnie z warunkiem ), faktycznie prowadzi do osiągnięcia zysku ekonomicznego? Odpowiedź zależy od relacji ceny do przeciętnego kosztu całkowitego, czyli od zysku przeciętnego albo inaczej marży zysku (ang. ). Jeśli cena rynkowa jest wyższa niż przeciętny koszt produkcji dla danego wolumenu, wówczas marża zysku jest dodatnia i przedsiębiorstwo osiąga zysk. Natomiast jeśli cena rynkowa jest niższa niż przeciętny koszt produkcji, marża zysku jest ujemna i przedsiębiorstwo ponosi straty. Możesz pomyśleć, że w tej sytuacji przedsiębiorstwo będzie chciało natychmiast zakończyć działalności. Pamiętaj jednak, że firma poniosła już koszty stałe, takie jak zakup wyposażenia, więc może jeszcze przez jakiś czas produkować mimo ponoszonych strat. ponownie przedstawia przykład producenta malin. przedstawia trzy położenia, w jakich znaleźć się może to przedsiębiorstwo: (a) cena przecina się z kosztem krańcowym na poziomie wyższym od kosztu przeciętnego, (b) cena przecina się z kosztem krańcowym na poziomie równym kosztowi przeciętnemu oraz (c) cena przecina się z kosztem krańcowym na poziomie niższym od kosztu przeciętnego.
Rozważmy sytuację, w której cena wynosi 5 zł za opakowanie mrożonych malin. Regułą pozwalającą na maksymalizację zysku dla przedsiębiorstwa doskonale konkurencyjnego jest wytwarzanie takiego poziomu produkcji, dla którego , a więc producent malin wyprodukuje ok. 85 opakowań, co jest oznaczone jako punkt E' na (a). Pamiętając, że powierzchnia prostokąta jest równa jego podstawie pomnożonej przez wysokość, utarg całkowity plantatora jest zatem równy polu prostokąta wyznaczonego przez połączenie początku układu współrzędnych, wielkości produkcji na poziomie 85 opakowań malin (podstawa), punktu E' (wysokość), ceny równej 5 zł i znów początku układu współrzędnych. Koszt przeciętny wyprodukowania 85 opakowań jest wyznaczony przez punkt C' i wynosi ok. 3,50 zł. Koszt całkowity jest równy produkcji na poziomie 85 opakowań pomnożonej przez koszt przeciętny równy 3,50 zł, co odzwierciedla pole prostokąta wyznaczonego przez połączenie początku układu współrzędnych, wielkości produkcji na poziomie 85 opakowań, punktu C', wartości kosztu przeciętnego (3,5 zł) odłożonej na osi pionowej i znów początku układu współrzędnych. Różnica między utargiem całkowitym a kosztem całkowitym to zysk. Tak więc zysk jest równy polu niebieskiego prostokąta.
Obliczenia:
Możemy to także obliczyć w następujący sposób:
Rozważmy teraz (b), na którym cena spadła do 2,75 zł za opakowanie mrożonych malin. Przedsiębiorstwo doskonale konkurencyjne ponownie wybierze wielkość produkcji zgodnie z warunkiem: , więc wyprodukowana ilość wyniesie 75. Przy tym poziomie ceny i wielkości produkcji krzywa kosztu krańcowego przecina się z krzywą kosztu przeciętnego, a cena otrzymywana przez przedsiębiorstwo jest dokładnie równa przeciętnemu kosztowi produkcji. Nazywamy to progiem rentowności (ang. ).
Utarg całkowity przedsiębiorstwa przy tej cenie jest równy polu prostokąta wyznaczonego przez połączenie początku układu współrzędnych, produkcji na poziomie 75 opakowań (podstawa), punktu E (wysokość), ceny na poziomie 2,75 i ponownie początku układu współrzędnych. Wartość funkcji kosztu przeciętnego odpowiadająca ilości , czyli punkt E, pokazuje koszt przeciętny wytworzenia danego wolumenu produkcji. Koszt całkowity jest równy ilości 75 pomnożonej przez koszt przeciętny na poziomie 2,75 zł, co jest pokazane jako pole prostokąta wyznaczonego przez połączenie początku układu współrzędnych, produkcji na poziomie 75, punktu E, wartości kosztu przeciętnego odłożonej na osi pionowej i ponownie początku układu współrzędnych. Jak widać, prostokąty określające utarg całkowity i koszt całkowity są takie same. Przedsiębiorstwo osiąga zatem zerowy zysk. Obliczenia są następujące:
Możemy to także obliczyć jako:
Na (c) cena rynkowa spadła jeszcze bardziej, do 2 zł za opakowanie mrożonych malin. Przy tej cenie utarg krańcowy przecina się z kosztem krańcowym przy produkcji równej 65. Utarg całkowity przedsiębiorstwa jest równy polu prostokąta wyznaczonego przez połączenie początku układu współrzędnych, produkcji na poziomie 65 opakowań (podstawa), punktu E” (wysokość), ceny 2 zł i ponownie początku układu współrzędnych. Koszt przeciętny wyprodukowania 65 opakowań jest oznaczony jako C” i wynosi ok. 2,73 zł. Całkowite koszty będą równe produkcji na poziomie 65 pomnożonej przez koszt przeciętny 2,73 zł, co ilustruje pole prostokąta wyznaczonego przez połączenie początku układu współrzędnych, produkcji na poziomie 65, punktu C”, wartości kosztu przeciętnego odłożonej na osi pionowej i ponownie początku układu współrzędnych. Porównując pola tych dwóch prostokątów, zauważymy, że utarg całkowity jest mniejszy niż koszt całkowity. A zatem, przedsiębiorstwo traci pieniądze, a strata (ujemny zysk) jest równa polu różowego prostokąta.
Obliczenia są następujące:
lub:
Jeśli cena rynkowa, którą posługuje się firma doskonale konkurencyjna, wskazuje na wielkość produkcji, dla której koszt przeciętny jest niższy od tej ceny, przedsiębiorstwo osiągnie zyski. Natomiast jeśli cena rynkowa determinuje wytwarzanie wolumenu produkcji, dla którego koszt przeciętny jest równy cenie, co ma miejsce w punkcie minimum krzywej AC, przedsiębiorstwo zanotuje zerowe zyski. Wreszcie jeśli cena wskazuje na poziom produkcji, dla którego koszt przeciętny jest wyższy od tej ceny, przedsiębiorstwo poniesie straty. podsumowuje powyższe konstatacje.
### Cena zamknięcia
Sytuacja, w której przedsiębiorstwo notuje straty, automatycznie nasuwa pytanie o to, czy nie powinno wstrzymać produkcji i w ten sposób uniknąć ich ponoszenia. Aby zrozumieć, dlaczego zakończenie działalności wcale nie musi być najkorzystniejszą opcją, powinniśmy sobie uświadomić, że wstrzymanie produkcji wprawdzie zredukuje koszty zmienne do zera, ale w krótkim okresie przedsiębiorstwo i tak nie uniknie kosztów stałych. Oznacza to, że nawet jeśli firma wytworzy zerową wielkość produkcji, wciąż będzie generować straty, ponieważ nadal będzie musiała opłacać koszty stałe.
Jako przykład rozważmy sytuację Klubu dla Mam, który podpisał umowę z Centrum Handlowym na wynajem powierzchni za 10 000 zł miesięcznie. Jeśli firma zdecyduje się działać, jej koszty krańcowe związane z zatrudnieniem opiekunek dla dzieci wyniosą 15 000 zł miesięcznie. Jeśli to mikroprzedsiębiorstwo zostanie zamknięte, nadal będzie musiało opłacać czynsz, ale nie będzie wypłacać pensji pracownikom. przedstawia trzy możliwe scenariusze. W pierwszym z nich Klub dla Mam nie ma żadnych klientów, a zatem nie osiąga żadnych utargów. W takim przypadku ponosi straty w wysokości 10 000 zł równe kosztom stałym. W drugim scenariuszu klub ma klientów, którzy przynoszą utarg w kwocie 10 000 zł miesięcznie. Ostatecznie zatem firma ponosi stratę w wysokości 15 000 zł z powodu konieczności zatrudniania opiekunek zajmujących się maluchami. W trzecim scenariuszu Klub dla Mam osiąga utarg w wysokości 20 000 zł miesięcznie, czyli ponosi stratę w wysokości 5000 zł.
We wszystkich trzech przypadkach Klub dla Mam osiąga stratę. A zatem w długim okresie, po tym, jak umowa najmu wygaśnie (i przy założeniu, że utargi nie wzrosną), firma powinna wstrzymać działalność. Jednak w krótkim okresie decyzje mogą być inne w zależności od wielkości strat i tego, czy firma jest w stanie zarobić na koszty zmienne. W scenariuszu pierwszym firma nie ma żadnych utargów, więc zatrudnienie opiekunek oznaczałoby pojawienie się kosztów zmiennych i powiększyłoby stratę. Firma powinna zatem zostać zamknięta i pokrywać tylko koszty stałe. W scenariuszu drugim kontynuowanie działalności również powiększałoby stratę, ponieważ przedsiębiorstwo nie generuje wystarczających utargów, aby pokryć wynikające z jego funkcjonowania koszty zmienne. Powinno więc natychmiast zostać zamknięte i ponosić tylko koszty stałe. Jeśli cena jest poniżej minimum przeciętnego kosztu zmiennego, firma musi zostać zamknięta nawet w krótkim okresie. Natomiast w scenariuszu trzecim utarg Klubu dla Mam jest na tyle wysoki, że strata zmniejsza się przy utrzymywaniu działalności, więc w krótkim okresie firma powinna funkcjonować.
Wróćmy do przykładu związanego z produkcją i sprzedażą malin. wskazuje, że kontynuowanie produkcji w krótkim okresie jest uzasadnione tylko wtedy, gdy cena przekracza przeciętny koszt zmienny. Jeżeli przedsiębiorstwo działa poniżej progu rentowności, w którym cena równa się kosztowi przeciętnemu, ponosi stratę, więc stoi przed dwiema możliwościami: kontynuować produkcję ze stratą lub wstrzymać działalność. Która opcja jest lepsza? Oczywiście ta, przy której strata pieniędzy jest najmniejsza.
Przy cenie 2 zł za opakowanie malin, jak pokazuje (a), jeśli przedsiębiorstwo zdecyduje się działać, będzie produkować 65 opakowań malin i poniesie stratę w wysokości 47,45 zł (jak zostało to wyjaśnione w poprzedniej sekcji). Alternatywą byłoby wstrzymanie działalności i poniesienie straty równej kosztom stałym w wysokości 62 zł. Ponieważ strata w wysokości 47,45 zł jest w oczywisty sposób mniejsza niż strata w kwocie 62 zł, wybór maksymalizujący zysk (lub, jak w tym przypadku, minimalizujący stratę) polega na kontynuowaniu produkcji. Kluczowe jest to, że cena przewyższa przeciętne koszty zmienne. A zatem przy obecnej cenie przedsiębiorstwo jest w stanie pokryć wszystkie swoje koszty zmienne, a utarg wystarcza jeszcze na pokrycie części kosztów stałych. Tak więc strata jest równa tylko części kosztów stałych, których przedsiębiorstwo nie jest w stanie w całości opłacić, co jest rzecz jasna mniejszą kwotą niż łączna suma kosztów stałych. Gdyby jednak cena spadła do 1,50 zł za opakowanie, jak pokazuje (b) i gdyby firma zastosowała zasadę , to wyprodukowałaby ilość równą 60. Cena jest jednak wówczas na poziomie niższym od przeciętnego kosztu zmiennego. Jeśli przedsiębiorstwo nie jest w stanie pokryć płac swoich pracowników (koszty zmienne) dzięki wypracowanemu utargowi, to musi zostać zamknięte. Przy tej cenie i poziomie produkcji utarg całkowity byłby równy 90 zł (ilość 60 pomnożona przez cenę 1,50 zł), a koszt całkowity wyniósłby 165 zł, prowadząc do strat w wysokości 75 zł. Jeśli przedsiębiorstwo zostanie zamknięte, musi opłacić tylko koszty stałe w kwocie 62 zł, więc wstrzymanie działalności jest lepszym rozwiązaniem niż sprzedawanie malin po cenie 1,50 zł za opakowanie.
Z wynika, że jeśli cena spadnie poniżej poziomu równego ok. 1,65 zł, czyli minimum przeciętnego kosztu zmiennego, przedsiębiorstwo musi wstrzymać działalność.
Punkt przecięcia krzywej przeciętnego kosztu zmiennego i krzywej kosztu krańcowego wskazujący cenę, poniżej której przedsiębiorstwo nie miałoby wystarczających utargów, aby pokryć swoje koszty zmienne, nazywa się ceną zamknięcia (ang. ) Jeśli przedsiębiorstwo doskonale konkurencyjne napotyka na cenę rynkową na poziomie wyższym od ceny zamknięcia, to pokrywa z nawiązką swoje koszty zmienne. Przy cenie wyższej od ceny zamknięcia firma osiąga również wystarczający utarg, aby pokryć przynajmniej część kosztów stałych, więc powinna produkować, nawet jeśli ponosi stratę w krótkim okresie, ponieważ ta strata będzie mniejsza niż całkowity koszt stały. Jeśli jednak przedsiębiorstwo napotyka na cenę niższą od ceny zamknięcia, to nie pokrywa nawet swoich kosztów zmiennych. W tym przypadku kontynuowanie produkcji prowadzi do jeszcze większych strat i przedsiębiorstwo powinno natychmiast zaprzestać działalności. Podsumowując, jeżeli:
1.
cena < minimalny krótkookresowy przeciętny koszt zmienny, to przedsiębiorstwo wstrzymuje produkcję w krótkim okresie
2.
cena > minimalny krótkookresowy przeciętny koszt zmienny, to przedsiębiorstwo kontynuuje produkcję w krótkim okresie
### Krótkookresowe wyniki przedsiębiorstw doskonale konkurencyjnych
Krzywe kosztu przeciętnego i przeciętnego kosztu zmiennego dzielą krzywą kosztu krańcowego na trzy segmenty jak obrazuje to . Przy danej cenie rynkowej doskonale konkurencyjne przedsiębiorstwo maksymalizujące zysk wybiera poziom produkcji, dla którego cena i utarg krańcowy (czyli te same wielkości dla firmy działającej w ramach konkurencji doskonałej) są równe kosztowi krańcowemu: .
Najpierw rozważmy sytuację w segmencie położonym najwyżej na krzywej kosztu krańcowego, gdzie ceny są wyższe od progu rentowności, w którym koszt krańcowy (SMC) przecina się z kosztem przeciętnym (SATC). Przy każdej cenie powyżej tego punktu przedsiębiorstwo osiąga dodatni zysk w krótkim okresie. Jeśli cena spadnie dokładnie do poziomu odpowiadającemu progowi rentowności, gdzie przecinają się krzywe SMC i SATC, przedsiębiorstwo osiąga zerowy zysk ekonomiczny. Jeśli cena znajdzie się w strefie pomiędzy progiem rentowności, gdzie SMC przecina SATC, a ceną zamknięcia, gdzie SMC przecina SAVC, przedsiębiorstwo ponosi stratę w krótkim okresie, ale ponieważ utarg przedsiębiorstwa pokrywa nie tylko koszty zmienne, ale też część kosztów stałych, strata jest mniejsza niż w przypadku natychmiastowego zamknięcia firmy. Na koniec rozważmy cenę na poziomie równym lub niższym od ceny zamknięcia, gdzie SMC przecina SAVC. Przy każdej cenie z tego przedziału przedsiębiorstwo powinno natychmiast wstrzymać działalność, ponieważ nie jest w stanie pokryć nawet swoich kosztów zmiennych. Przy cenie zamknięcia utarg pokrywa w całości koszty zmienne, więc z punktu widzenia przedsiębiorstwa nie ma znaczenia, czy zostanie zamknięte, czy będzie produkować, gdyż w obu przypadkach strata będzie równa kosztom stałym.
### Koszt krańcowy i krzywa podaży przedsiębiorstwa
Krzywa podaży przedsiębiorstwa doskonale konkurencyjnego to krzywa jego kosztów krańcowych powyżej punktu minimum przeciętnego kosztu zmiennego. Aby zrozumieć, dlaczego to zaskakujące spostrzeżenie jest prawdziwe, zastanów się, jaką zależność ilustruje w istocie krzywa podaży. Przedsiębiorstwo sprawdza cenę rynkową, a następnie patrzy na swoją krzywą podaży, aby zdecydować, jaką ilość wyprodukować. Teraz zastanów się, co to znaczy, że przedsiębiorstwo maksymalizuje swoje zyski, produkując ilość, dla której . Ta reguła oznacza, że przedsiębiorstwo sprawdza cenę rynkową, a następnie patrzy na swój koszt krańcowy, aby określić wielkość produkcji, i upewnia się, że cena jest większa od minimalnego przeciętnego kosztu zmiennego. A zatem krzywa kosztu krańcowego powyżej punktu minimum na krzywej przeciętnego kosztu zmiennego jest krzywą podaży przedsiębiorstwa.
Jak to stwierdziliśmy w , najważniejszymi czynnikami, które powodują przesunięcie krzywych podaży, są zmiany kosztów wytwarzania. Na przykład niższa cena kluczowych czynników wytwórczych lub nowe technologie obniżające koszty produkcji powodują przesunięcie krzywej podaży w prawo. Z kolei złe warunki atmosferyczne lub dodatkowe regulacje państwa mogą zwiększyć koszty wytwarzania niektórych towarów w sposób powodujący przesunięcie krzywej podaży w lewo. Możemy również interpretować przesunięcia krzywej podaży przedsiębiorstwa jako przesunięcia krzywej kosztów krańcowych. Zmiana kosztów produkcji, która zwiększa koszty krańcowe dla wszystkich poziomów produkcji – przesuwając wykres SMC w górę i w lewo – powoduje, że doskonale konkurencyjne przedsiębiorstwo będzie produkować mniej przy danej cenie rynkowej. I odwrotnie, zmiana kosztów produkcji, która zmniejsza koszty krańcowe dla każdego poziomu produkcji, powoduje przesunięcie wykresu SMC w dół i w prawo, w wyniku czego przedsiębiorstwo doskonale konkurencyjne zdecyduje się zwiększyć produkcję przy każdym poziomie ceny. Poniższa przedstawia odpowiedni przykład liczbowy.
Krok 1. Określ strukturę kosztów przedsiębiorstwa. Dla danych całkowitych kosztów stałych i zmiennych oblicz koszt całkowity, przeciętny koszt zmienny, przeciętny koszt całkowity i koszt krańcowy. Postępuj zgodnie ze wzorami podanymi w . Obliczenia znajdują się w .
Krok 2. Określ cenę rynkową, jaką przedsiębiorstwo otrzymuje za swój produkt. Ponieważ przedsiębiorstwo w konkurencji doskonałej jest biorcą ceny, cena rynkowa jest stała. Przy danej cenie oblicz utarg całkowity jako iloczyn ceny i ilości dla wszystkich poziomów produkcji. W naszym przykładzie cena wynosi 28 zł. Widać to w drugiej kolumnie .
Krok 3. Oblicz zysk jako utarg całkowity pomniejszony o koszt całkowity co jest pokazane w .
Krok 4. Aby znaleźć poziom produkcji maksymalizujący zysk, spójrz na kolumnę „Koszt krańcowy” (jak pokazuje ) i określ, dla jakiego poziomu produkcji koszt krańcowy jest równy cenie rynkowej. Wolumen produkcji, dla którego cena równa się kosztowi krańcowemu, to właśnie poziom maksymalizujący zysk.
Krok 5. Po ustaleniu poziomu produkcji maksymalizującego zysk (w naszym przypadku produkcja równa 5) możesz spojrzeć na wielkość osiąganych zysków (w naszym przypadku 40 zł).
Krok 6. Jeśli przedsiębiorstwo ponosi stratę, musi ustalić, czy ma kontynuować produkcję, dla której cena równa się utargowi krańcowemu i kosztowi krańcowemu, czy też wstrzymać działalność i ponosić tylko koszty stałe.
Krok 7. Sprawdź, czy dla poziomu produkcji, dla którego utarg krańcowy jest równy kosztowi krańcowemu, cena rynkowa jest większa niż przeciętny koszt zmienny wytworzenia tej wielkości produkcji.
1.
Jeżeli
2.
Jeżeli
W naszym przykładzie cena 28 zł jest wyższa niż przeciętny koszt zmienny wytworzenia 5 jednostek (16 zł), więc przedsiębiorstwo kontynuuje produkcję.
### Kluczowe pojęcia i podsumowanie
Gdy przedsiębiorstwo doskonale konkurencyjne zwiększa produkcję, jego utarg całkowity systematycznie rośnie w stałym tempie określonym przez cenę rynkową. Zyski będą największe (lub straty najmniejsze) przy wielkości produkcji, dla której różnica między utargiem całkowitym a kosztem całkowitym jest największa (a gdy utargi są niższe niż koszty – gdy ta różnica jest najmniejsza). Alternatywnie zysk będzie największy, gdy utarg krańcowy, czyli cena dla przedsiębiorstwa doskonale konkurencyjnego, jest równy kosztowi krańcowemu. Jeśli cena rynkowa, którą napotyka przedsiębiorstwo doskonale konkurencyjne, jest wyższa niż koszt przeciętny dla wielkości produkcji maksymalizującej zysk, wówczas przedsiębiorstwo osiąga zysk. Jeśli cena rynkowa znajduje się poniżej kosztu przeciętnego dla wielkości produkcji maksymalizującej zysk, przedsiębiorstwo ponosi stratę.
Jeśli cena rynkowa jest równa kosztowi przeciętnemu dla wielkości produkcji maksymalizującej zysk, przedsiębiorstwo osiąga zerowy zysk ekonomiczny. Punkt, w którym krzywa kosztu krańcowego przecina krzywą kosztu przeciętnego w minimum krzywej kosztu przeciętnego, nazywamy progiem rentowności. Jeśli cena rynkowa, którą napotyka przedsiębiorstwo doskonale konkurencyjne, jest niższa od przeciętnego kosztu zmiennego przy wielkości produkcji maksymalizującej zysk, wówczas przedsiębiorstwo powinno natychmiast wstrzymać działalność. Jeśli cena rynkowa, którą napotyka przedsiębiorstwo doskonale konkurencyjne, jest wyższa niż przeciętny koszt zmienny, ale niższa niż przeciętny koszt całkowity, to przedsiębiorstwo powinno kontynuować produkcję w krótkim okresie i wyjść z gałęzi w długim okresie (o ile oczywiście nie uda się zmienić struktury i wysokości napotykanych kosztów). Punkt, w którym krzywa kosztu krańcowego przecina krzywą przeciętnego kosztu zmiennego, nazywamy ceną zamknięcia.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Problemy
|
# Konkurencja doskonała
## Decyzje o wejściu i wyjściu w długim okresie
Nie da się precyzyjnie określić granicy między krótkim a długim okresem za pomocą stopera czy nawet kalendarza. Różnice zależą od konkretnej firmy i gałęzi, dlatego rozróżnienie między krótkim a długim okresem jest bardziej techniczne: w krótkim okresie przedsiębiorstwa nie mogą w pełni swobodnie dostosowywać do swoich potrzeb nakładu wszystkich czynników produkcji, a w długim okresie taką swobodę już mają.
Na konkurencyjnym rynku zyski są elementem zachęcającym przedsiębiorstwa do zwiększenia skali aktywności gospodarczej. Jeśli firma osiąga zysk w krótkim okresie, ma motywację do rozbudowy istniejących fabryk lub budowy kolejnych. Również nowe przedsiębiorstwa mogą rozpocząć produkcję i sprzedaż na rynku. Kiedy nowe firmy wchodzą do branży zachęcone zwiększonymi zyskami, jakie oferuje, nazywa się to wejściem lub decyzją o wejściu (ang. ).
Z kolei straty są elementem, który powoduje ucieczkę przedsiębiorstw z gałęzi. Jeśli przedsiębiorstwo ponosi straty w krótkim okresie, wówczas albo będzie ograniczać wykorzystanie mocy wytwórczych, produkując ze stratą, albo po prostu się zamknie, w zależności od tego, czy jego utarg pokrywa koszty zmienne, czy też jest od nich niższy. Jednak w długim okresie firmy, które ponoszą straty, całkowicie zaprzestaną produkcji. Długookresowy proces wygaszania działalności w odpowiedzi na utrzymujące się straty nazywa się wyjściem lub decyzją o wyjściu (ang. ). Poniższa zawiera omówienie możliwych czynników powodujących straty przedsiębiorstw, a także determinant decyzji o wyjściu z gałęzi.
### Jak decyzje przedsiębiorstw o wejściu i wyjściu z gałęzi prowadzą do zerowych zysków w długim okresie?
Żadne przedsiębiorstwo doskonale konkurencyjne (ang. ) działając samodzielnie, nie może wpłynąć na cenę rynkową. Jednak grupa wielu przedsiębiorstw wchodzących lub wychodzących z danej gałęzi wpłynie na ogólną podaż rynkową. Z kolei zmiana podaży odbije się na cenie rynkowej. Wejście i wyjście z rynku to siły napędowe procesu, który w długim okresie obniża cenę do poziomu minimalnych przeciętnych kosztów całkowitych, przez co wszystkie firmy działające w danej branży osiągają jedynie zerowy zysk ekonomiczny.
Aby zrozumieć, jak krótkookresowe zyski przedsiębiorstwa doskonale konkurencyjnego znikają w długim okresie, wyobraź sobie następującą sytuację. Rynek jest w równowadze długookresowej (ang. ), wszystkie firmy osiągają zerowe zyski ekonomiczne, wytwarzając produkcję, dla której i . Żadna firma nie ma motywacji do wejścia lub wyjścia z gałęzi. Załóżmy następnie, że popyt na produkt rośnie, a wraz z nim zwiększa się cena rynkowa. Istniejące w danej gałęzi gospodarki przedsiębiorstwa stoją teraz w obliczu wyższej ceny, więc zwiększają produkcję do nowego poziomu, dla którego .
Spowoduje to chwilowy wzrost ceny rynkowej powyżej punktu minimum na krzywej kosztu przeciętnego, a zatem istniejące na rynku firmy będą osiągać zyski ekonomiczne. Ta perspektywa przyciągnie do gałęzi nowe przedsiębiorstwa. Wejście wielu nowych firm spowoduje przesunięcie krzywej podaży w prawo. Gdy krzywa podaży przesuwa się w prawo, cena rynkowa zaczyna spadać, a wraz z nią maleją zyski ekonomiczne nowych i istniejących firm. Dopóki na rynku nadal będą zyski, wejście na rynek będzie przesuwało podaż w prawo. Proces zostanie zatrzymany, gdy cena rynkowa spadnie do poziomu, dla którego żadne przedsiębiorstwo nie będzie już osiągać zysków.
Z kolei krótkookresowe straty znikną dzięki odwrotnemu procesowi. Załóżmy, że rynek jest w długookresowej równowadze. Tym razem popyt spada, a wraz z nim maleje cena rynkowa. Istniejące w gałęzi przedsiębiorstwa mają teraz do czynienia z niższą ceną niż wcześniej, a ponieważ będzie ona poniżej krzywej kosztu przeciętnego, przedsiębiorstwa będą ponosić straty ekonomiczne. Niektóre firmy będą kontynuować produkcję według warunku: nowa cena , o ile uda im się pokryć swoje koszty zmienne. Inne zaś będą musiały natychmiast wstrzymać działalność, ponieważ nie zdołają pokryć swoich kosztów zmiennych. Wyjście wielu przedsiębiorstw z branży spowoduje przesunięcie krzywej podaży rynkowej w lewo. Gdy krzywa podaży przesuwa się w lewo, cena rynkowa zaczyna rosnąć, a straty ekonomiczne maleć. Proces ten kończy się, gdy cena rynkowa wzrośnie do poziomu zerowego zysku ekonomicznego, dla którego wszystkie istniejące w gałęzi przedsiębiorstwa nie tracą już pieniędzy. Tak więc podczas gdy doskonale konkurencyjne przedsiębiorstwo może notować zysk w krótkim okresie, w długim okresie proces wejścia będzie obniżał ceny, aż osiągnięty zostanie poziom zerowego zysku. I odwrotnie, doskonale konkurencyjne przedsiębiorstwo może ponosić stratę w krótkim okresie, ale firmy nie będą w stanie stale tracić pieniędzy. W długim okresie przedsiębiorstwa ponoszące straty mogą pozbyć się kosztów stałych, a ich wyjście z rynku spowoduje powrót ceny do poziomu zysku zerowego. W długim okresie procesy wejścia i wyjścia doprowadzą cenę na doskonale konkurencyjnych rynkach do progu rentowności (ang. ), dla którego koszt krańcowy przecina koszt przeciętny.
### Długookresowe dostosowania i rodzaje branż
Ilekroć w gałęzi doskonale konkurencyjnej następuje wzrost produkcji, koszty wytwarzania w istniejących i nowych przedsiębiorstwach mogą pozostać takie same, wzrosnąć, a nawet spaść. Dlatego możemy kategoryzować te branże jako: (1) gałęzie o stałych kosztach (gdy koszty w przedsiębiorstwach pozostają takie same wraz ze wzrostem produkcji), (2) gałęzie o rosnących kosztach (w miarę wzrostu produkcji koszty w przedsiębiorstwach rosną), lub (3) gałęzie o malejących kosztach (gdy produkcja rośnie, koszty maleją).
W przypadku gałęzi o stałych kosztach (ang. ), ilekroć występuje wzrost popytu na rynku i wzrost ceny, krzywa podaży przesuwa się w prawo wraz z wejściem nowych przedsiębiorstw i zatrzymuje się w punkcie, w którym nowa długookresowa równowaga występuje przy tej samej cenie rynkowej co poprzednio. Jest to przypadek stałych przychodów ze skali, które omówiliśmy wcześniej w . Dlaczego jednak koszty pozostają takie same? W tego typu branżach krzywa podaży jest bardzo elastyczna. Firmy mogą z łatwością wyprodukować dowolną ilość, której zażądają konsumenci. Ponadto istnieje doskonale elastyczna podaż nakładów – np. przedsiębiorstwa mogą łatwo zwiększyć zatrudnienie pracowników bez wzrostu płac. Włączając w nasze rozważania przykład z , zwiększony popyt na etanol w ostatnich latach spowodował wzrost popytu na kukurydzę. W związku z tym wielu rolników przerzuciło się z uprawy pszenicy na uprawę kukurydzy. Rynki rolne są ogólnie dobrymi przykładami gałęzi o stałych kosztach.
W gałęzi o rosnących kosztach (ang. ) wraz ze wzrostem produkcji rynkowej stare i nowe przedsiębiorstwa doświadczają wzrostu kosztów, co sprawia, że nowy poziom zerowego zysku występuje przy wyższej cenie niż wcześniej. W tym przypadku przedsiębiorstwa mogą mieć np. do czynienia z czynnikami produkcji, których podaż jest ograniczona (takimi jak wykwalifikowana siła robocza), co oznacza, że wzrost produkcji i tym samym wzrost popytu na te czynniki będzie zwiększał ich cenę (wynagrodzenia pracowników) i podnosił koszty wytwarzania. Krzywa podaży gałęzi jest mniej elastyczna.
W przypadku gałęzi o malejących kosztach (ang. ) wraz ze wzrostem produkcji rynkowej stare i nowe przedsiębiorstwa doświadczają niższych kosztów, co sprawia, że nowy poziom zerowego zysku występuje przy cenie niższej niż poprzednio. W tym przypadku branża i wszystkie funkcjonujące w niej przedsiębiorstwa doświadczają spadku przeciętnych kosztów całkowitych. Może to być spowodowane zmianą technologii w całej gałęzi lub wzrostem wykształcenia pracowników. Dobrym przykładem rynków o malejących kosztach są branże high-tech.
na panelu (a) przedstawia proces dostosowawczy w gałęzi o stałych kosztach. Ilekroć w takiej gałęzi następuje wzrost produkcji, efekt długookresowy oznacza większą produkcję przy dokładnie tej samej cenie co wcześniej. Należy zauważyć, że podaż była w stanie wzrosnąć, aby sprostać zwiększonemu popytowi. Kiedy połączymy początkową i końcową równowagę długookresową, otrzymamy linię będącą krzywą długookresowej podaży (LRSS) na rynkach doskonale konkurencyjnych. W tym przypadku jest to pozioma linia. na panelu (b) i na panelu (c) przedstawiają odpowiednio gałęzie o rosnących i malejących kosztach. W przypadku branży o rosnących kosztach LRSS ma nachylenie dodatnie, natomiast w gałęzi o malejących kosztach LRSS ma nachylenie ujemne.
### Kluczowe pojęcia i podsumowanie
W długim okresie przedsiębiorstwa reagują na istnienie zysków ekonomicznych w gałęzi doskonale konkurencyjnej, decydując się na rozpoczęcie w niej działalności (wejście), a podmioty, które już w niej funkcjonowały, zwiększając produkcję. I odwrotnie, przedsiębiorstwa reagują na straty w długim okresie, decydując się na wstrzymanie produkcji i wyjście z rynku. W konsekwencji, poziom cen na rynku doskonale konkurencyjnym będzie się zmieniał w taki sposób, aby każde przedsiębiorstwo, które działa w tej gałęzi miało tylko zyski normalne (osiągnęło próg rentowności, gdzie krzywa kosztu krańcowego przecina krzywą kosztu przeciętnego w punkcie jej minimum).
Długookresowa krzywa podaży pokazuje wielkość produkcji wszystkich przedsiębiorstw w długim okresie w trzech różnych typach gałęzi doskonale konkurencyjnych: o stałych kosztach, rosnących kosztach i malejących kosztach.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
|
# Konkurencja doskonała
## Efektywność rynków doskonale konkurencyjnych
Kiedy połączymy analizę sposobu postępowania przedsiębiorstw maksymalizujących zysk na rynkach doskonale konkurencyjnych z analizą zachowania konsumentów maksymalizujących użyteczność, dostrzeżemy ciekawą zależność: wolumen produkcji na takim rynku charakteryzuje się zarówno efektywnością produkcyjną, jak i efektywnością alokacyjną (są to terminy, które zostały wprowadzone po raz pierwszy w ).
Efektywność produkcyjna (ang. ) oznacza produkcję bez marnotrawstwa, zatem ilustrują ją punkty leżące na krzywej możliwości produkcyjnych. W długim okresie na rynku doskonale konkurencyjnym, ze względu na proces wejścia i wyjścia, cena rynkowa jest równa minimum długookresowej krzywej kosztów przeciętnych. Innymi słowy, przedsiębiorstwa produkują i sprzedają dobra w takiej ilości, która oznacza najniższy możliwy koszt przeciętny.
Efektywność alokacyjna (ang. ) oznacza, że spośród punktów leżących na krzywej możliwości produkcyjnych, wybrana kombinacja produkcji konkretnych dóbr jest społecznie preferowana – przynajmniej w pewnym określonym i specyficznym znaczeniu. Na rynku doskonale konkurencyjnym cena jest równa kosztowi krańcowemu. Pomyśl o cenie płaconej za jakieś dobro jako o mierze korzyści społecznych uzyskiwanych w związku z jego konsumpcją; w końcu gotowość do zapłaty określonej kwoty oznacza, ile dany towar jest wart dla kupującego. Następnie pomyśl o krańcowym koszcie wytworzenia tego samego dobra jako wartości, która nie tylko odzwierciedla wydatki ponoszone w związku z jego wyprodukowaniem przez konkretne przedsiębiorstwo, ale w szerszym kontekście – społeczny koszt wytworzenia tego produktu. Kiedy przedsiębiorstwa doskonale konkurencyjne przestrzegają zasady maksymalizacji zysku, wytwarzając ilość, dla której cena jest równa kosztowi krańcowemu, zapewniają w ten sposób, że społeczne korzyści uzyskiwane z produkcji dobra są równe społecznym kosztom produkcji.
Aby lepiej pojąć, co ekonomiści rozumieją przez efektywność alokacyjną, warto zapoznać się z przykładem. Zacznijmy od założenia, że hurtowy rynek kwiatów jest doskonale konkurencyjny, więc . Zastanówmy się teraz, co by się stało, gdyby przedsiębiorstwa na tym rynku produkowały mniej kwiatów. Przy mniejszym wolumenie koszty krańcowe spadną, w związku z czym cena będzie od nich wyższa, czyli . W takiej sytuacji korzyść dla całego społeczeństwa związana z produkcją dodatkowego bukietu (krańcowej jednostki dobra), mierzona gotowością konsumentów do zapłaty za ów bukiet konkretnej ceny, byłaby wyższa niż koszt opłacenia nakładów pracy i kapitału rzeczowego potrzebnych do wytworzenia dodatkowego bukietu (krańcowej jednostki dobra). Innymi słowy, korzyści dla całego społeczeństwa z produkcji dodatkowego bukietu będą większe niż koszty. Rozsądne wydaje się zatem przesunięcie zasobów w ramach gospodarki i zwiększenie produkcji kwiatów kosztem produkcji warzyw lub owoców.
I odwrotnie, zastanówmy się, jakie byłyby konsekwencje sytuacji, w której przedsiębiorstwa wyprodukowałyby większą ilość kwiatów niż ta wynikająca z warunku zapewniającego efektywność alokacyjną, tj. . Przy większej ilości koszty krańcowe produkcji wzrosną tak, że . Krańcowe koszty produkcji dodatkowego bukietu są więc większe niż korzyść dla społeczeństwa mierzona tym, ile ludzie są gotowi za ów bukiet zapłacić. Ponieważ koszty przewyższają korzyści, dla całego społeczeństwa sensowne będzie produkowanie mniejszej ilości kwiatów. Oznacza to, że zasoby wykorzystywane do produkcji kwiatów powinny zostać przesunięte do produkcji innych dóbr, np. warzyw lub owoców.
Kiedy doskonale konkurencyjne przedsiębiorstwa maksymalizują zyski, produkując zgodnie z warunkiem , dodatkowo przyczyniają się do ukształtowania sytuacji, w której korzyści dla konsumentów z dokonywanych zakupów, mierzone ceną, którą są oni gotowi zapłacić, są równe kosztom społecznym dodatkowej produkcji mierzonym kosztami krańcowymi ponoszonymi przez przedsiębiorstwo. Występuje zatem efektywność alokacyjna.
Na twierdzenia, że doskonale konkurencyjny rynek w długim okresie będzie charakteryzował się efektywnością produkcyjną i alokacyjną, powinniśmy spojrzeć z pewnym sceptycyzmem co do ich prawdziwości. Pamiętajmy, że ekonomiści używają pojęcia „efektywny” w pewnym określonym, specyficznym znaczeniu, a nie jako synonimu wyrażenia „pożądany pod każdym względem”. Przede wszystkim dlatego, że zdolność konsumentów do zapłaty za dane dobro odzwierciedla rozkład dochodów w danym społeczeństwie. Tak więc osoba bezdomna może nie mieć możliwości zapłaty za mieszkanie, ponieważ nie dysponuje wystarczającymi dochodami. Z punktu widzenia bezdomnego efektywność alokacyjna i produkcyjna będą nic nieznaczącymi stwierdzeniami, a nie rozwiązaniem ze wszech miar pożądanym.
Konkurencja doskonała w długim okresie jest hipotetycznym punktem odniesienia. W przypadku struktur rynkowych takich jak monopol, konkurencja monopolistyczna i oligopol, które w świecie rzeczywistym występują znacznie częściej niż konkurencja doskonała, przedsiębiorstwa nie zawsze będą produkować przy minimalnym koszcie przeciętnym i nie zawsze ustalą cenę równą kosztowi krańcowemu. A zatem pozostałe struktury rynkowe nie zapewniają efektywności produkcyjnej ani alokacyjnej.
Co więcej, na rzeczywistych rynkach występuje wiele elementów, które są dalekie od założeń modelu doskonałej konkurencji. Wymieńmy tu choćby zanieczyszczenie środowiska, nowe technologie, ubóstwo mogące sprawić, że niektórzy ludzie nie będą w stanie opłacić podstawowych potrzeb niezbędnych do przeżycia, programy rządowe takie jak obrona narodowa czy edukacja, dyskryminację na rynkach pracy oraz niedoskonałą informację, z którą muszą sobie radzić zarówno nabywcy, jak i sprzedawcy. Kwestie te omówimy w kolejnych rozdziałach. Jednak teoretyczna efektywność konkurencji doskonałej stanowi użyteczny punkt odniesienia do porównywania różnych zagadnień wynikających z problemów istniejących w rzeczywistym świecie.
### Kluczowe pojęcia i podsumowanie
Stan długookresowej równowagi na rynkach doskonale konkurencyjnych oznacza efektywność alokacyjną i efektywność produkcyjną. Te dwie cechy mają ważne implikacje. Po pierwsze, zasoby są wykorzystywane w najlepszy z możliwych sposobów. Po drugie, sposób wykorzystania dostępnych zasobów zapewnia maksymalną satysfakcję możliwą do osiągnięcia przez społeczeństwo.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Bibliografia
Index Mundi. n.d. “Wheat Monthly Price—U.S. Dollars per Metric Ton.” Accessed March 11, 2015. http://www.indexmundi.com/commodities/?commodity=wheat.
Knutson, J. “Wheat on the Defensive in the Northern Plains.” Agweek, Associated Press State Wire: North Dakota (ND). April 14, 2013.
SBA Office of Advocacy. 2014. “Frequently Asked Questions: Advocacy: the voice of small business in government.” Accessed March 11, 2015. https://www.sba.gov/sites/default/files/advocacy/FAQ_March_2014_0.pdf. |
# Monopol
## Wprowadzenie do rozdziału
Wiele osób sądzi, że menedżerowie najwyższego szczebla w przedsiębiorstwach są największymi zwolennikami konkurencji rynkowej, ale to przekonanie jest dalekie od prawdy. Pomyśl o tym w ten sposób: jeśli bardzo chcesz zdobyć złoty medal olimpijski, to czy wolisz być – dzięki ciężkiemu treningowi, dobrym trenerom i unikatowemu wyposażeniu – w znacznie lepszej formie od wszystkich innych konkurentów, czy też rywalizować z wieloma sportowcami równie dobrymi jak ty? Podobnie jeśli chcesz osiągnąć bardzo wysoki poziom zysków: wolisz zarządzać biznesem, który ma tylko niewielką konkurencję (lub nie ma jej wcale), czy borykać się z wieloma sprawnymi, konkurencyjnymi firmami, które próbują sprzedawać swoje wyroby twoim klientom? Być może masz już za sobą lekturę rozdziału o doskonałej konkurencji. W tym rozdziale przeanalizujemy przykład struktury rynku z drugiego bieguna, czyli monopol.
Jeśli doskonała konkurencja to rynek, na którym pojedyncze przedsiębiorstwa nie mają żadnej siły wpływu i po prostu reagują na cenę rynkową, to monopol jest rynkiem bez konkurencji, a przedsiębiorstwo będące jedynym sprzedawcą danego produktu dysponuje pełnią siły monopolowej. Ponieważ monopol nie ma żadnej znaczącej konkurencji, może pobierać dowolną cenę, oczywiście uwzględniając zależności wynikające z krzywej popytu. Monopol z definicji odnosi się do pojedynczego przedsiębiorstwa, jednak w praktyce ludzie często używają tego terminu do opisu rynku, w którym jeden podmiot gospodarczy ma po prostu bardzo duży udział. Jest to podejście słuszne, gdyż czynnikiem, który odróżnia monopol od innych struktur rynku jest swoboda w kształtowaniu cen. Swoboda ta jest niezależna od tego, czy na rynku rzeczywiście działa tylko jedna firma, czy też takich podmiotów jest więcej, ale największy z nich ma udział wielokrotnie przekraczający względną sprzedaż wszystkich konkurentów razem wziętych. Jakkolwiek w ścisłym sensie tego typu struktura rynku nie jest monopolem, lecz oligopolem z liderem na rynku.
Chociaż istnieje bardzo niewiele prawdziwych monopoli, to mamy z nimi do czynienia codziennie, często nie zdając sobie z tego sprawy: Totalizator Sportowy na terenie Polski, przedsiębiorstwa zajmujące się dystrybucją energii elektrycznej na rynkach lokalnych, wodociągowe i wywożące śmieci na terenie konkretnych jednostek samorządu terytorialnego (gmin i miast na prawach powiatów) – to jedynie kilka przykładów. Niektóre nowe leki są produkowane tylko przez jedno przedsiębiorstwo farmaceutyczne i nie istnieją żadne ich substytuty.
Od połowy lat 90. XX w. do 2004 r. Departament Sprawiedliwości Stanów Zjednoczonych ścigał firmę Microsoft Corporation za instalację aplikacji Internet Explorer jako domyślnej przeglądarki internetowej w systemie operacyjnym Windows. Departament Sprawiedliwości argumentował, że Microsoft – posiadając niezwykle duży udział w rynku systemów operacyjnych i udostępniając bezpłatną przeglądarkę internetową – stosował nieuczciwą konkurencję w stosunku do producentów innych aplikacji tego typu, takich jak Netscape Navigator. Ponieważ prawie wszyscy użytkownicy indywidualni korzystali z systemu Windows, a za jego pośrednictwem również z Internet Explorera, niemal wyeliminowało to potrzebę poszukiwania innych przeglądarek i uniemożliwiło konkurentom zdobycie choćby przyczółka na rynku, dającego widoki na jakąkolwiek ekspansję w dłuższym okresie. W 2013 r. system Windows działał na ponad 90% najczęściej sprzedawanych komputerów osobistych w Stanach Zjednoczonych. W 2015 r. amerykański sąd federalny odrzucił z kolei zarzuty antymonopolowe wysunięte wobec Google Inc. (obecne Alphabet Inc.), jakoby firma ta zawarła umowę z producentami urządzeń mobilnych (telefonów i tabletów), aby ci instalowali Google jako domyślną wyszukiwarkę.
Niniejszy rozdział rozpoczyna się od opisu tego, w jaki sposób monopole są chronione przed konkurencją, np. przez prawo, które ją wyklucza, przez przewagi technologiczne oraz pewne specyficzne konfiguracje popytu i podaży. Następnie zostanie wyjaśniony sposób, w jaki monopolista wybiera maksymalizującą zysk wielkość produkcji i jak określa cenę swojego wyrobu. Przedsiębiorstwo monopolistyczne wciąż martwi się o to, czy konsumenci będą kupować jego produkty, czy też wydadzą pieniądze na coś zupełnie innego. Ale nie musi się już przejmować działaniami innych, konkurencyjnych przedsiębiorstw wytwarzających takie same lub podobne produkty. W rezultacie monopol nie przyjmuje cen z rynku, jak czyni to przedsiębiorstwo na rynku doskonale konkurencyjnym, bo ma możliwości wyznaczania ceny za swój produkt. O monopoliście mówimy, że jest twórcą cen. |
# Monopol
## Jak powstaje monopol: bariery wejścia
Brak konkurencji powoduje, że monopole mogą osiągać znaczne zyski ekonomiczne. Ich wysokość powinna pobudzać energiczne działania potencjalnych konkurentów, tak jak to zostało opisane w rozdziale traktującym o doskonałej konkurencji. Jednak ze względu na jedną szczególną cechę monopolu tak się nie dzieje. Bariery wejścia (ang. ) to przepisy prawa, rozwiązania technologiczne lub siły rynkowe, które zniechęcają potencjalnych konkurentów do wejścia na rynek opanowany przez monopolistę lub im to uniemożliwiają. Bariery wejścia mogą być relatywnie niewielkie i łatwe do pokonania, np. barierą wejścia na rynek detalicznego handlu żywnością będzie koszt wynajmu powierzchni handlowej, lub też bardzo restrykcyjne, np. istnieje skończona liczba częstotliwości radiowych dostępnych dla nadawców. Gdy przedsiębiorstwo zdobędzie prawa do wykorzystywania ich wszystkich, nowi konkurenci nie będą mogli wejść na rynek.
Istnienie barier wejścia może prowadzić do powstania monopolu lub ograniczyć konkurencję do kilku przedsiębiorstw. Takie bariery mogą blokować wejście do gałęzi nowych producentów, nawet jeśli działające w niej przedsiębiorstwo lub przedsiębiorstwa osiągają zyski. Tak więc na rynkach chronionych znacznymi barierami wejścia nawet ponadprzeciętne zyski nie przełożą się na wzrost liczby funkcjonujących firm. Tym samym cena obowiązująca na takim rynku nie spadnie, a zyski ekonomiczne nawet w długim okresie nie zmniejszą się do poziomu zysków normalnych.
Istnieją dwa rodzaje monopoli, wyróżnione na podstawie rodzaju barier wejścia chroniących rynki, na których monopole te działają. Pierwszym z nich jest monopol naturalny (ang. ), w którego przypadku bariery wejścia mają charakter pozaprawny. Drugim jest monopol oparty na przepisach prawa / prawny (ang. ), w którym zakaz konkurencji (lub jej poważne ograniczenie) wprost wynika z różnego rodzaju regulacji.
### Monopol naturalny
Jeśli korzyści skali występują dla rozmiarów produkcji zdefiniowanych przez popyt rynkowy, może to stanowić istotny czynnik ograniczający konkurencję (wprowadziliśmy ten temat w ). przedstawia krzywą długookresowych kosztów przeciętnych typowego producenta samolotów. Dla produkcji o wielkości do 8 tys. sztuk rocznie i cenie P0 przedsiębiorstwo napotyka rosnące przychody ze skali produkcji (korzyści skali), dla produkcji od 8 tys. do 20 tys. samolotów rocznie przychody ze skali produkcji są stałe, a dla produkcji większej niż 20 tys. maszyn rocznie przychody ze skali produkcji maleją (pojawiają się niekorzyści skali).
Rozważmy teraz na wykresie krzywą popytu, która przecina długookresową krzywą kosztów przeciętnych (LAC) przy poziomie produkcji 5 tys. samolotów rocznie i przy cenie P1 wyższej niż P0. W takiej sytuacji na rynku jest miejsce tylko dla jednego producenta. Jeśli drugie przedsiębiorstwo będzie próbowało wejść na rynek i produkować na przykład 4 tys. samolotów, to jego koszty przeciętne będą wyższe niż w przypadku obecnego już na rynku przedsiębiorstwa. A więc nowy podmiot nie będzie w stanie przedstawić konkurencyjnej oferty dla potencjalnych klientów. Jeśli nowe przedsiębiorstwo spróbuje wejść na rynek i produkować więcej, np. 8 tys. maszyn rocznie, to osiągnie niższe koszty przeciętne, ale nie sprzeda wszystkich wyprodukowanych samolotów z powodu niewystarczającego popytu na rynku.
Rynek, na którym korzyści skali występują dla rozmiarów produkcji zbliżonych do rynkowego zapotrzebowania, ekonomiści nazywają „monopolem naturalnym”. Takie struktury często powstają w gałęziach, w których krańcowy koszt pozyskania dodatkowego klienta jest bardzo niski w sytuacji, gdy koszty stałe zostały już poniesione. Skutkuje to pojawieniem się znacznych korzyści skali. Na przykład gdy firma wodociągowa ułoży już szkielet systemu rur w danej dzielnicy, koszt krańcowy świadczenia usługi dla kolejnej nieruchomości będzie dość niski. Podobnie gdy przedsiębiorstwo dystrybuujące energię elektryczną zainstaluje już linie przesyłowe w nowym rejonie, krańcowy koszt podłączenia do sieci jeszcze jednego domu stanie się minimalny. Wejście na rynek drugiego przedsiębiorstwa świadczącego usługi wodociągowe i inwestycja polegająca na położeniu konkurencyjnego systemu rur lub wejście na rynek drugiego przedsiębiorstwa energetycznego i dublowanie układu linii przesyłowych byłoby nie tylko bardzo kosztowne, ale i niepotrzebne. W tego typu gałęziach jeden sprzedawca, ze względu na korzyści skali, może obsłużyć cały rynek bardziej efektywnie niż wielu mniejszych producentów, którzy musieliby niezależnie od siebie inwestować w kapitał rzeczowy. Warto zwrócić uwagę, że brak ekonomicznego uzasadnienia dla istnienia konkurencji na takich rynkach tworzy presję na regulację działalności monopoli naturalnych przez państwo. Regulator publiczny najczęściej zastrzega sobie prawo do zatwierdzania nowych cen proponowanych przez naturalnego monopolistę, tak aby firma nie nadużywała swojej dominującej pozycji. Przykładem takiego regulatora w polskim środowisku prawnym jest Urząd Regulacji Energetyki (URE) odpowiedzialny za regulację gospodarki paliwowej i energetycznej.
Naturalny monopol może również powstać na mniejszych, lokalnych rynkach produktów, których transport jest utrudniony lub kosztowny. Na przykład produkcja cementu charakteryzuje się korzyściami skali, gdyż zapotrzebowanie na cement na danym obszarze bywa zbliżone do ilości, którą może wyprodukować pojedyncza cementownia. Ponadto koszty transportu drogowego tego materiału są wysokie, a więc cementownia działająca na obszarze pozbawionym możliwości transportu wodnego może stać się naturalnym monopolistą.
### Kontrola zasobów
Z inną odmianą monopolu mamy do czynienia wówczas, gdy przedsiębiorstwo kontroluje dostęp do zasobów jakiegoś surowca. W gospodarce amerykańskiej historycznym przykładem takiego monopolu była ALCOA – Aluminium Company of America – przedsiębiorstwo, które dysponowało większością złóż boksytu, kluczowego minerału używanego do produkcji aluminium. W latach 30. XX w., kiedy ALCOA kontrolowała większość podaży boksytów, inne firmy po prostu nie były w stanie wyprodukować wystarczającej ilości aluminium, aby z nią konkurować.
Albo inny przykład: większość światowej produkcji diamentów kontrolowana jest przez DeBeers, międzynarodową firmę, która prowadzi działalność wydobywczą w RPA, Botswanie, Namibii oraz Kanadzie, wciąż aktywnie poszukuje nowych złóż na czterech kontynentach i jednocześnie kieruje ogólnoświatową siecią dystrybucji nieoszlifowanych diamentów. Choć w ostatnich latach firma ta napotyka rosnącą konkurencję, to jej wpływ na rynek diamentów jest nadal znaczny.
### Monopol oparty na przepisach prawa (prawny)
W przypadku produkcji niektórych dóbr lub usług to państwo tworzy bariery wejścia, zakazując lub ograniczając konkurencję. Zgodnie z prawem Stanów Zjednoczonych żaden podmiot poza US Postal Service nie może dostarczać przesyłek pierwszej klasy. W Polsce z kolei, realizując monopol państwa, tylko Totalizator Sportowy może oferować klientom hazardowe gry liczbowe i produkty loteryjne. W wielu miastach obowiązują przepisy, które pozwalają gospodarstwom domowym na wybór tylko jednego przedsiębiorstwa energetycznego, jednego przedsiębiorstwa świadczącego usługi wodociągowe i jednego podmiotu wywożącego śmieci. Większość prawnych monopoli to firmy działające na rynku mediów, w jakie wyposażone są budynki (woda, energia elektryczna, gaz lub ciepło), dostarczające produkty niezbędne do codziennego życia, czyli dobra społecznie pożądane. Z drugiej strony prawny monopol jest w pewnym sensie potwierdzeniem tego, że przedsiębiorstwa te są najczęściej naturalnymi monopolami, ze względu na dostęp do kosztownej infrastruktury przesyłowej. Państwo, gwarantując tym podmiotom status monopolistów, zapewnia klientom dostęp do odpowiedniej ilości wysokiej jakości produktów lub usług, jednocześnie rezerwując sobie wpływ na te specyficzne rynki i prawo do kontroli cen.
### Promocja innowacji
Wprowadzenie innowacji wymaga czasu i zasobów. Załóżmy, że przedsiębiorstwo farmaceutyczne inwestuje spore kwoty w badania i dzięki temu wynajduje lekarstwo na przeziębienie. W świecie niemal nieograniczonego dostępu do informacji inne przedsiębiorstwa mogłyby przejąć tę nową substancję i wyprodukować swój lek. A ponieważ nie poniosły kosztów badań, mogłyby zaoferować cenę rynkową poniżej poziomu wyznaczonego przez firmę, która opracowała nowe lekarstwo. Wziąwszy pod uwagę taki scenariusz, wiele przedsiębiorstw w ogóle nie zdecydowałoby się na prowadzenie jakiejkolwiek działalności w obszarze badań i rozwoju (BiR), co w rezultacie znacznie ograniczyłoby liczbę innowacji. Aby temu zapobiec, większość państw wprowadziła rozwiązanie zapewniające autorom i wynalazcom wyłączne prawo do ich odkryć na pewien ograniczony czas. Jest to patent (ang. ), który tylko wynalazcy przyznaje prawo do wytwarzania, używania lub sprzedaży wynalazku. W Polsce, podobnie jak w Stanach Zjednoczonych, wyłączne prawa patentowe obowiązują maksymalnie przez 20 lat. Chodzi o to, aby, zapewniając firmie-wynalazcy kontrolę nad rynkiem, umożliwić jej odzyskanie nakładów poniesionych na badania i rozwój, a następnie pozwolić innym przedsiębiorstwom na wytwarzanie tego konkretnego produktu i sprzedawanie go po niższej cenie już po wygaśnięciu patentu. W ten sposób nowy produkt stanie się tańszy i będzie dostępny dla szerszej grupy klientów.
Znak towarowy (ang. ) to nazwa konkretnego towaru, takiego jak banany Chiquita, samochody Chevrolet i czekolady Wedel, lub symbol (logo) identyfikujący dany produkt (trzy paski firmy Adidas, gwiazda Mercedesa lub żuraw LOT-u). W USA jest zarejestrowanych ok. 1,9 mln znaków towarowych. W przeciwieństwie do patentu wyłączne prawo do posługiwania się konkretnym znakiem towarowym można sobie zagwarantować na czas nieokreślony, o ile oczywiście symbol lub nazwa są przez przedsiębiorstwo aktywnie używane.
Prawo patentowe obejmuje wynalazki, natomiast książki, piosenki i dzieła sztuki są chronione prawami autorskimi. Prawa autorskie ograniczają możliwości wykorzystywania (tj. powielania, kopiowania, prezentowania itd.) oryginalnych dzieł tylko do sytuacji, w których autor wyrazi na to zgodę. Jednak w niektórych obszarach, takich jak tworzenie nowego oprogramowania, nie jest jasne, czy należy stosować ochronę patentową, czy raczej prawo autorskie. Istnieje również zbiór praw znany jako tajemnica handlowa (ang. ). Nawet jeśli przedsiębiorstwo nie ma patentu na wynalazek, to konkurentom nie wolno kraść tych tajemnic. Jedną z najsłynniejszych tajemnic handlowych jest formuła Coca-Coli, a w Polsce dokładny przepis na wiele słodyczy sprzedawanych np. pod marką Wedel (Ptasie Mleczko). Receptury te nie są chronione ani prawem autorskim, ani prawem patentowym, stanowią po prostu tajemnicę konkretnych przedsiębiorstw. Jeśli zatem komuś udałoby się legalnie skopiować przepisy na wytwarzane przez te firmy produkty, mógłby je zgodnie z prawem sprzedawać, oczywiście pod inną marką.
Podsumowując: kombinację wspomnianych wyżej patentów, znaków towarowych, praw autorskich i tajemnicy handlowej nazywamy własnością intelektualną (ang. ), ponieważ oznacza ona prawa do pomysłu, koncepcji lub obrazu, a nie części majątku rzeczowego, takiego jak nieruchomości lub środki transportu. Wiele państw uchwaliło prawa chroniące własność intelektualną, chociaż okresy ochrony i szczegółowe przepisy dotyczące tych praw różnią się w zależności od kraju. Trwają międzynarodowe negocjacje prowadzone m.in. pod egidą Światowej Organizacji Własności Intelektualnej (WIPO) mające na celu zwiększenie harmonizacji prawa własności intelektualnej w różnych krajach. Chodzi o ustalenie zakresu, w jakim podmioty w danych państwach będą respektować zagraniczne patenty i prawa autorskie.
W większości krajów rozwiniętych, w tym i w Polsce, monopole publiczne wynikające z przepisów prawa były jeszcze 50 lat temu znacznie bardziej powszechne niż obecnie. Przez większą część XX w. w Stanach Zjednoczonych telefoniczne usługi usługi lokalne i międzymiastowe mogła legalnie świadczyć tylko jedna firma – AT&T. Od lat 30. do 70. XX w. przepisy federalne ograniczały w USA możliwości swobodnego oferowania przez linie lotnicze usług na konkretnych trasach, jak również ustalania wysokości opłat pobieranych za bilety. Z kolei w Europie okres swobody świadczenia usług przewozów lotniczych zaczął się dopiero w XXI w. Inne przepisy ograniczały odsetki, jakie banki mogły wypłacać deponentom; jeszcze inne określały, jakie opłaty firmy przewozowe mogły pobierać od klientów.
To, jakie produkty uważamy za media związane trwale z nieruchomościami, zależy w dużej mierze od dostępnej technologii. 50 lat temu firmy telekomunikacyjne świadczyły usługi lokalne i międzymiastowe, wykorzystując przewody. Nie było zatem uzasadnienia, aby wiele przedsiębiorstw budowało swoje sieci kablowe w miastach i na terenie całego kraju. AT&T straciło monopol na usługi międzymiastowe, gdy technologia świadczenia usług telefonicznych zmieniła się z przewodowej na transmisję radiową. Dzięki temu wiele przedsiębiorstw mogło korzystać z tego samego urządzenia do przesyłania informacji. To samo stało się z usługami lokalnymi, zwłaszcza w ostatnich latach, wraz z rozwojem systemów telefonii komórkowej. Z kolei rozwój technologii paneli fotowoltaicznych do pewnego stopnia ogranicza monopole związane z przesyłaniem energii. Jak widać, postęp techniczny i rozwój technologii przekładają się na ograniczenie skali funkcjonowania monopoli naturalnych, a w konsekwencji również tych, które cieszą się ochroną prawa.
Pod koniec lat 70. XX w. w USA postęp techniczny, zmiana nastawienia opinii publicznej a także przedstawicieli władz federalnych i stanowych, doprowadziły do spopularyzowania przekonania, że rynki mogą zapewnić odpowiednią jakość świadczonych usług. Zapoczątkowało to proces deregulacji (ang. ), który trwał do lat 90. XX w. Konsekwencją tego procesu było zmniejszenie lub wręcz likwidacja ograniczeń nałożonych na swobodę świadczeń usług (zasady określające możliwości wejścia do branży, wolność wyznaczania cen itd.) w wielu gałęziach gospodarki, takich jak telekomunikacja, przewozy lotnicze, transport samochodowy, bankowość i energetyka.
Mimo to nadal na całym świecie – od Europy, przez Amerykę Łacińską, Afrykę i Azję, a na Stanach Zjednoczonych kończąc – wiele rządów nadal kontroluje i ogranicza konkurencję (szczególnie zagraniczną) w branżach, które postrzegane są jako kluczowe, np. transporcie lotniczym i kolejowym, bankowości, telekomunikacji, przemyśle wydobywczym itp.
### Odstraszanie potencjalnych konkurentów
Przedsiębiorstwa opracowały bardzo wiele sposobów tworzenia barier, które mają zniechęcać potencjalnych konkurentów do wchodzenia na rynek. Jedna z nich znana jest jako drapieżnictwo cenowe (w literaturze przedmiotu spotykane są również określenia: ceny dumpingowe lub antykonkurencyjne) (ang. ) i polega na groźbie ogromnych obniżek cen, które zostałyby wprowadzone, gdyby konkurenci zdecydowali się na rozpoczęcie działalności na konkretnym rynku. Posługiwanie się cenami dumpingowymi jest nielegalne zarówno w USA, jak i w Polsce, ale proceder ten bardzo trudno udowodnić.
Pomyśl o dużej linii lotniczej, która obsługuje większość lotów między dwoma miastami. Nowa, niewielka linia lotnicza również postanawia oferować swoje usługi na trasie między tymi dwoma ośrodkami. Duża linia natychmiast obcina ceny za to połączenie do poziomu, który wyklucza jakikolwiek zysk małej firmy. Niekiedy wystarczy jednoznacznie zadeklarować, że będzie się stosować tego typu strategię (wystarczy obniżyć ceny do poziomu kosztu przeciętnego, który w przypadku dużych podmiotów zazwyczaj jest niższy, w dodatku będzie to działanie legalne), żeby nikt nie próbował wejść na ten wąski rynek. Dzięki temu nie trzeba nawet obniżać cen w krótkim okresie, żeby podnosić je w okresie długim. To dlatego małe linie lotnicze często oskarżają większe o ustalanie antykonkurencyjnych cen (drapieżnictwo cenowe). Na początku XXI w. w USA ValuJet oskarżał o takie działanie Deltę, Frontier – linie United, a Reno Air przewoźnika Northwest. Z drugiej strony, aby taka strategia miała sens, poziom cen na trasach zmonopolizowanych przez duże linie lotnicze nie może być zbyt wysoki, a to jest korzystne dla klientów. Odbywa się to jednak kosztem coraz niższej jakości, czego najlepszym przykładem na rynku europejskim jest firma Ryanair i wprowadzane przez nią liczne opłaty za usługi, które inne linie lotnicze traktują jako standard.
W niektórych przypadkach duże budżety reklamowe również mogą zniechęcać konkurencję. Jeśli jedynym sposobem na wprowadzenie na rynek krajowy nowego, odnoszącego sukcesy napoju jest przeznaczenie na jego marketing sum większych niż te przewidziane w budżetach na reklamę i promocję produktów sprzedawanych pod markami Coca-Cola i Pepsi Cola, to niewiele firm spróbuje to zrobić. Jeśli marka cieszy się renomą i popularnością wśród konsumentów, próba zastąpienia lidera rynkowego swoim produktem może być niezwykle kosztowna lub wręcz niemożliwa do realizacji.
### Podsumowanie barier wejścia
wymienia bariery wejścia, które już omówiliśmy. Ich lista nie jest pełna, ponieważ przedsiębiorstwa wykazują się dużą kreatywnością w wymyślaniu praktyk biznesowych zniechęcających potencjalną konkurencję. Gdy na rynku istnieją bariery wejścia ograniczające swobodę świadczenia usług, model konkurencji doskonałej nie jest właściwym sposobem opisu funkcjonowania danej gałęzi gospodarki. Gdy bariery wejścia są wystarczająco wysokie, może to doprowadzić do powstania monopolu.
### Key Concepts and Summary
Bariery wejścia zniechęcają konkurentów do wejścia na rynek lub uniemożliwiają im to. Bariery te obejmują: korzyści skali, które – jeśli dotyczą rozmiarów produkcji równych popytowi rynkowemu – prowadzą do powstania naturalnego monopolu zaopatrującego cały rynek i niepozostawiającego miejsca dla innych wytwórców; kontrolę zasobów naturalnych; prawne ograniczenia konkurencji; ochronę patentów, znaków towarowych i praw autorskich; i wreszcie praktyki mające na celu odstraszenie konkurencji, takie jak drapieżnictwo cenowe (ceny dumpingowe lub inaczej antykonkurencyjne). Własność intelektualna odnosi się do chronionych przepisami prawa wartości niematerialnych (pomysłów i idei), a nie do fizycznych składników kapitału. Prawa chroniące własność intelektualną obejmują patenty, prawa autorskie, znaki towarowe i tajemnice handlowe.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
|
# Monopol
## Jak maksymalizujący zyski monopol ustala produkcję i ceny
Wyobraźmy sobie przedsiębiorstwo monopolistyczne w pełni chronione barierami wejścia, tak że nie musi obawiać się konkurencji ze strony innych producentów. W jaki sposób taka firma wybierze wielkość produkcji maksymalizującą zysk i jaką cenę ustali? Zyski monopolisty, jak każdej firmy, będą równe sumie przychodów pomniejszonej o sumę kosztów. Możemy analizować koszty monopolu tak samo jak koszty ponoszone przez przedsiębiorstwo doskonale konkurencyjne – to znaczy badając koszt całkowity, koszt stały, koszt zmienny, koszt krańcowy, całkowity koszt przeciętny i przeciętny koszt zmienny. Jednak z uwagi na to, że monopol nie ma konkurencji, jego sytuacja i sposób podejmowania decyzji będą się różnić od położenia przedsiębiorstwa działającego na rynku doskonale konkurencyjnym. ( omawia problemy, które pojawiają się wraz z próbami definiowania rynku w sytuacji monopolu.)
### Krzywe popytu postrzegane przez przedsiębiorstwo doskonale konkurencyjne i monopolistę
Przedsiębiorstwo działające na rynku doskonale konkurencyjnym jest cenobiorcą. Jego całkowity utarg obliczamy więc, mnożąc cenę rynkową przez wybraną wielkość produkcji. Krzywą popytu – tak jak ją postrzega przedsiębiorstwo na rynku doskonale konkurencyjnym – przedstawia (a). Płaska krzywa popytu oznacza, że przedsiębiorstwo na rynku doskonale konkurencyjnym może sprzedać albo stosunkowo małą ilość, jak Ql, albo stosunkowo dużą ilość, jak Qh, po tej samej cenie rynkowej P.
Monopolista może żądać dowolnej ceny za swój produkt, ale popyt na sprzedawane przez niego dobra lub usługi tę swobodę jednak ogranicza. Żaden monopolista, nawet ten w pełni chroniony wysokimi barierami wejścia, nie może wymusić na konsumentach zakupu jego produktu. Ponieważ monopolista jest jedynym przedsiębiorstwem na rynku, jego indywidualna krzywa popytu pokrywa się krzywą rynkową, która (w przeciwieństwie do sytuacji przedsiębiorstwa na rynku doskonale konkurencyjnym) opada.
pokazuje tę sytuację. Monopolista może wybrać np. punkt R z niską ceną (Pl) i dużą ilością (Qh), albo punkt S z wysoką ceną (Ph) i małą ilością (Ql) lub dowolny punkt pośredni. Ustalenie zbyt wysokiej ceny będzie skutkowało niską sprzedażą i nie przyniesie dużego utargu. I odwrotnie, ustalenie ceny zbyt niskiej może skutkować sprzedażą dużej ilości, ale ze względu na niską cenę również nie przyniesie dużego utargu. Wyzwaniem dla monopolisty jest maksymalizacja zysku dzięki znalezieniu optymalnej relacji między ceną, którą pobiera, a ilością, którą sprzedaje. Dlaczego jednak krzywa popytu dla przedsiębiorstwa działającego na rynku doskonale konkurencyjnym nie jest jednocześnie krzywą popytu rynkowego? Spójrz na kolejną , aby odpowiedzieć na to pytanie.
### Koszty całkowite i utarg całkowity monopolisty
Wielkość zysków monopolisty przedstawione na za pomocą krzywych utargu całkowitego i kosztów całkowitych hipotetycznej firmy Tabletka Zdrowia. Krzywa kosztów całkowitych ma typowy kształt, taki jaki przedstawiliśmy w i jaki wykorzystywaliśmy w rozdziale poświęconym konkurencji doskonałej. Wartość kosztów całkowitych rośnie coraz bardziej wraz ze wzrostem wolumenu produkcji (krzywa kosztów jest coraz bardziej stroma), zgodnie z danymi z ostatniej kolumny w .
Ponieważ dla monopolisty krzywa popytu opada, jedynym sposobem na zwiększenie sprzedaży jest obniżenie ceny. Sprzedawanie większej ilości produktów przekłada się na wzrost utargu, ale jednoczesne obniżanie ceny go zmniejsza. W związku z tym wielkość utargu całkowitego zmienia się niejednokierunkowo. Przyjrzyjmy się temu, korzystając z danych w , która wskazuje zapotrzebowanie dla określonych punktów na krzywej popytu i cenę dla każdej z analizowanych wielkości zapotrzebowania. W tabeli zaprezentowana została również wartość utargu całkowitego, czyli iloczyn ceny i wielkości produkcji. (W tym przykładzie dla uproszczenia podajemy wynik jako 1, 2, 3, 4 itd.; jeśli wolisz odrobinę więcej realizmu, możesz sobie wyobrazić, że to przedsiębiorstwo farmaceutyczne mierzy poziomy produkcji i odpowiadające im ceny dla tysiąca lub 10 tys. tabletek.) Na wykresie łatwo zauważyć, że utarg całkowity monopolisty ma kształt stylizowanej paraboli, najpierw rośnie, następnie się wypłaszcza, po czym maleje. W tym przykładzie utarg całkowity jest najwyższy dla produkcji na poziomie 6 lub 7.
Jednak monopolista nie dąży do maksymalizacji utargu, ale do osiągnięcia najwyższego możliwego zysku. Nasza firma, której sytuacja jest zilustrowana na , największy zysk osiągnie przy takiej wielkości produkcji, dla której wykres utargu całkowitego jest najbardziej oddalony od krzywej kosztów całkowitych. Wydaje się, że to miejsce znajduje się na środku wykresu, ale gdzie dokładnie? Łatwiej jest znaleźć poziom produkcji maksymalizujący zysk, stosując podejście oparte na wartościach krańcowych (marginalnych), które zaraz przedstawimy.
### Utarg krańcowy i koszt krańcowy monopolisty
W realnym świecie monopolista zwykle nie ma kompletnych informacji umożliwiających analizę krzywych utargu całkowitego lub kosztów całkowitych dla bardzo szerokiego spektrum produkcji i sprzedaży. W końcu przedsiębiorstwo nie wie dokładnie, co by się stało, gdyby rozmiary produkcji zwiększyły się dziesięciokrotnie lub spadły o 90%. Jednak monopolista zazwyczaj ma dość wiarygodne informacje o tym, jak niewielka zmiana produkcji wpłynie na jego krańcowe przychody i koszty. W końcu niewielkie zmiany wytwarzanej ilości dóbr lub usług są chlebem powszednim każdego przedsiębiorstwa, zaś konsekwencje takich umiarkowanych zmian łatwo jest ekstrapolować na podstawie obecnych doświadczeń. Monopolista może wykorzystać wiedzę o utargu krańcowym (przychodzie marginalnym) (ang. ) i kosztach krańcowych (ang. ), aby znaleźć kombinację ilości oferowanej na rynku i ceny, która pozwoli zmaksymalizować zysk.
prezentuje wartości utargu krańcowego i kosztu krańcowego przedsiębiorstwa Tabletka Zdrowia obliczone na podstawie kosztów całkowitych i utargu całkowitego przedstawionych w . Kształt obu krzywych jest typowy: krzywa kosztu krańcowego jest rosnąca, zaś krzywa utargu krańcowego opadająca, jak to widać na .
Zauważ, że utarg krańcowy wynosi zero przy wielkości produkcji równej 7 i staje się ujemny przy produkcji powyżej tego poziomu. To, że utarg krańcowy może być zerowy lub ujemny, wydaje się sprzeczne z intuicją: czyż zwiększenie sprzedaży nie powinno oznaczać większego przychodu? Dla przedsiębiorstwa na rynku doskonale konkurencyjnym każda dodatkowo sprzedana jednostka powiększała utarg całkowity, gdyż utarg krańcowy (przychód marginalny) był nie tylko dodatni, ale również stały i równy cenie rynkowej. Jednak monopolista może sprzedać więcej i odnotować spadek utargu całkowitego (przychodu całkowitego) (ang. ). Gdy monopolista zwiększa zbyt o dodatkową jednostkę, osiąga pewien utarg krańcowy z jej sprzedaży i w konsekwencji utarg całkowity rośnie. Jednocześnie jednak jest zmuszony obniżyć cenę na wszystkie dotychczas sprzedawane jednostki (w końcu krzywa popytu opada). To z kolei będzie zmniejszać jego utarg całkowity. Wraz ze wzrostem ilości oferowanej na rynku relatywne znaczenie malejącej ceny staje się większe niż wpływ dodatkowego utargu ze sprzedaży jeszcze jednej sztuki produktu. Oznacza to, że wraz ze wzrostem sprzedaży utarg całkowity zaczyna maleć, zaś utarg krańcowy staje się ujemny.
Monopolista może określić cenę i wielkość produkcji maksymalizującą zysk dzięki analizie utargu krańcowego i kosztu krańcowego. Jeśli utarg krańcowy przekracza koszt krańcowy, przedsiębiorstwo powinno zdecydować się na wyprodukowanie tej dodatkowej jednostki.
Na przykład dla produkcji równej 4 na utarg krańcowy wynosi 600, a koszt krańcowy 250, więc produkcja tej jednostki wyraźnie zwiększy zysk całkowity. Przy produkcji równej 5 utarg krańcowy wynosi 400, a koszt krańcowy 400, zatem produkcja tej jednostki oznacza, że całkowite zyski pozostają niezmienione. Jednak zwiększenie produkcji z 5 do 6 wiązałoby się z utargiem krańcowym wynoszącym 200 i kosztem krańcowym równym 850, a więc wytworzenie i sprzedaż tej jednostki faktycznie zmniejszy zyski. A zatem, na podstawie analizy wartości utargu i kosztu krańcowego zaprezentowanych w tabeli, monopolista może stwierdzić, że wielkość produkcji maksymalizująca zysk wynosi 5.
Monopolista mógłby poszukiwać poziomu produkcji maksymalizującego zysk, obliczając wartości utargu krańcowego i kosztu krańcowego przy niewielkim wzroście produkcji i sprzedaży, a następnie albo zwiększać produkcję, dopóki utarg krańcowy nie przekroczy wartości kosztu krańcowego, albo zmniejszyć produkcję, jeśli koszt krańcowy stanie się większy niż utarg krańcowy. Zwróćmy uwagę, że taki sposób analizy nie wymaga obliczania wartości utargu całkowitego ani kosztów całkowitych. Zatem monopolista maksymalizujący zysk powinien kierować się zasadą zwiększania produkcji do poziomu, w którym utarg krańcowy zrówna się z kosztem krańcowym, czyli . Ta wielkość jest łatwa do identyfikacji na wykresie, gdyż w tym punkcie krzywe MR i MC się przecinają.
### Graficzne przedstawienie zysku monopolu
Obliczenie wartości zysku, jeśli znany jest zarówno utarg całkowity, jak i koszt całkowity, jest bardzo łatwe. Wielkość zysków monopolisty można również zilustrować graficznie, tak jak na . Krzywe kosztu krańcowego i utargu krańcowego są takie same jak na poprzednim wykresie, a dodatkowo pokazane są: krzywa kosztów przeciętnych i krzywa popytu rynkowego na produkt monopolisty. zawiera dane liczbowe potrzebne do narysowania tych krzywych (kwoty w zł).
pokazuje trzyetapowy proces, w ramach którego monopolista: wybiera wielkość produkcji maksymalizującą zysk, decyduje, jaką cenę wyznaczyć, i określa swój utarg całkowity, koszt całkowity i zysk.
Krok 1: Monopolista określa poziom produkcji maksymalizujący zysk
Przedsiębiorstwo może wykorzystać krzywą popytu do obliczenia utargu całkowitego i na tej podstawie wyznaczyć swoją krzywą utargu krańcowego. Produkcja maksymalizująca zysk występuje dla wolumenu, dla którego zostanie spełniony warunek , lub dla ostatniego poziomu produkcji, dla którego utarg krańcowy jest wciąż wyższy od kosztu krańcowego. Na warunek występuje przy wielkości produkcji równej 5.
Krok 2: Monopolista decyduje, po jakiej cenie sprzedawać produkt
Monopolista będzie pobierał maksymalną cenę, jaką konsumenci są gotowi zapłacić. Linia przerywana poprowadzona od wielkości produkcji maksymalizującej zysk do krzywej popytu wskazuje cenę maksymalizującą zysk, która na wynosi 800 zł. Ta cena jest wyższa od poziomu kosztów przeciętnych dla tych rozmiarów produkcji, co oznacza, że przedsiębiorstwo realizuje zyski nadzwyczajne. Nadwyżka ceny nad kosztem krańcowym określana jest przez ekonomistów jako „siła monopolowa”. Monopolista taką siłą dysponuje, w przeciwieństwie do przedsiębiorstwa doskonale konkurencyjnego, które zrównuje cenę z kosztem krańcowym, zgodnie z warunkiem .
Krok 3: Obliczenie utargu całkowitego, kosztów całkowitych i zysku
Utarg (przychód) całkowity to cały zacieniony obszar, którego szerokość wyznaczona jest przez wielkość produkcji i sprzedaży, a wysokość – przez cenę. Na jest to . Na dolna część tego pola, zacieniona nieco jaśniejszym odcieniem, wskazuje koszty całkowite; jest to wielkość produkcji na osi poziomej pomnożona przez koszt przeciętny na osi pionowej, zatem . Większe pole utargu całkowitego minus mniejsze pole kosztów całkowitych to zysk, zilustrowany przez intensywnie zacieniowane pole. Korzystając z danych, dostajemy . Na rynku doskonale konkurencyjnym brak barier wejścia w długim okresie zmniejszyłby ten zysk do zera. Jednak monopolistę i jego rynek takie bariery chronią. W praktyce jedną z oczywistych wskazówek świadczących o tym, że gałąź jest zmonopolizowana, są zyski ekonomiczne, które działające w niej przedsiębiorstwo regularnie notuje, robiąc cały czas to samo i nie przejmując się potencjalną konkurencją, która mogłaby te zyski ograniczyć lub zlikwidować.
### Nieefektywność monopolu
Większość ludzi krytykuje monopole, ponieważ wyznaczają zbyt wysokie ceny na oferowane przez siebie produkty. Ale ekonomiści wskazują raczej na fakt, iż monopole nie dostarczają na rynek dostatecznie dużych rozmiarów produkcji, które zapewniłyby efektywność alokacyjną. Aby zrozumieć, dlaczego monopol jest nieefektywny, warto porównać go ze wzorcowym modelem konkurencji doskonałej.
Przypomnijmy, że efektywność alokacyjna (ang. ) to koncepcja ekonomiczna odnosząca się do efektywności na poziomie społecznym (całego społeczeństwa). Oznacza wytwarzanie takiego wolumenu produkcji jakiegoś dobra lub usługi, dla którego społeczna korzyść krańcowa jest równa społecznemu kosztowi krańcowemu. Dla przedsiębiorstwa działającego w gałęzi doskonale konkurencyjnej warunek ten jest spełniony. Przedsiębiorstwo doskonale konkurencyjne produkuje i sprzedaje swoje towary w takiej ilości, dla której cena równa się kosztowi krańcowemu , przy czym cena rynkowa jest wyrażoną w pieniądzach miarą tego, jak bardzo kupujący cenią dane dobro, a koszt krańcowy (MC) jest pieniężną miarą tego, ile społeczeństwo musi poświęcić, aby to dobro wyprodukować. Przestrzeganie tej zasady zapewnia efektywność alokacyjną. Jeśli cena jest wyższa niż koszt krańcowy , wtedy krańcowa korzyść dla społeczeństwa (mierzona ceną) jest większa niż krańcowy koszt społeczny wyprodukowania dodatkowych jednostek, a więc produkcja powinna zostać zwiększona. Jednak w przypadku monopolu cena jest zawsze wyższa niż koszt krańcowy dla produkcji maksymalizującej zysk, jak to można zauważyć na przykład na . Tym samym działania monopolu przekładają się na pogorszenie sytuacji konsumentów, którzy będą mogli na rynku kupić mniejszą ilość i będą musieli zapłacić wyższą cenę, niż miałoby to miejsce na rynku doskonale konkurencyjnym.
Problem nieefektywności monopoli jest często jeszcze bardziej skomplikowany niż omówione powyżej kwestie, szczególnie wtedy, gdy rozważymy bodźce do zwiększania efektywności tych przedsiębiorstw w długim okresie. Na firmy funkcjonujące na rynku działają równoważące się do pewnego stopnia siły. Z jednej strony bowiem przedsiębiorstwa mogą inwestować w działalność innowacyjną, licząc na to, że patenty, czy w szerszym kontekście własność intelektualna, pozwolą im na uzyskanie (lub wzmocnienie) pozycji monopolistycznej i osiąganie wysokich zysków, przynajmniej przez kilka lat, dopóki konkurencja nie nadrobi zaległości. A więc monopole mogą powstać z powodu presji konkurencyjnej wywieranej na przedsiębiorstwa. Jednak po ustanowieniu barier wejścia monopolista, który nie musi się już obawiać konkurencji, może po prostu wytwarzać te same produkty w ten sam sposób (niezależnie od tego, czy istnieją możliwości poprawy jakości sprzedawanych przez monopolistę wyrobów lub szanse na obniżenie kosztów procesów produkcyjnych), jednocześnie zapewniając sobie wystarczająco wysoką stopę zysku. John Hicks, zdobywca Nagrody Nobla z ekonomii w 1972 r., napisał w roku 1935: „Największą korzyścią z pozycji monopolistycznej jest spokojne życie” („The best of all monopoly profits is a quiet life”). Oczywiście nie była to żadną miarą aprobata dla zachowania tego typu firm. Hicks miał na myśli to, że monopoliści mogą gromadzić zyski, nie troszcząc się specjalnie o satysfakcję swoich klientów.
Gdy AT&T było wyłącznym dostawcą usług telefonii lokalnej i międzymiastowej w Stanach Zjednoczonych oraz produkowało większość sprzętu telefonicznego, plany taryfowe i modele telefonów właściwie się nie zmieniały. Było to wręcz źródłem gorzkich dowcipów, jakoby klient tej firmy mógł nabyć swój telefon w dowolnym kolorze pod warunkiem, że będzie to kolor czarny. Jednak w 1982 r., na skutek zainicjowanego przez amerykański rząd federalny postępowania sądowego, monopolista został podzielony na kilka mniejszych podmiotów: lokalne firmy telekomunikacyjne (tzw. baby bells), przedsiębiorstwo świadczące usługi połączeń międzymiastowych i producenta sprzętu telefonicznego. Konsekwencją tego posunięcia była eksplozja innowacji. Udostępniono takie usługi, jak połączenie oczekujące, identyfikacja dzwoniącego numeru, połączenia trójstronne, pocztę głosową utrzymywaną dzięki infrastrukturze technicznej operatorów, a nie aparatom telefonicznym wyposażonym w rejestrację głosu, telefony komórkowe i bezprzewodowe połączenia z internetem. Firmy oferowały również szeroką gamę planów taryfowych, które pozwoliły obniżyć ceny połączeń dla większości klientów. Również aparaty telefonicznie stały się dostępne w szerokiej gamie kolorów i kształtów. Likwidacja monopolu telefonicznego przyniosła niższe ceny, bardziej dostępne usługi, a także falę innowacji ukierunkowanych na wzrost satysfakcji klientów.
### Key Concepts and Summary
Monopolista nie jest cenobiorcą, ponieważ decydując, jaką ilość wyprodukuje, określa również cenę rynkową. Dla monopolisty utarg całkowity jest stosunkowo niski zarówno przy relatywnie małych, jak i przy znacznych rozmiarach produkcji i sprzedaży –początkowo ze względu na niewielki popyt, a później z powodu niskiej ceny rynkowej. Tak więc łączny utarg monopolisty wraz ze wzrostem produkcji najpierw rośnie, żeby później zacząć spadać. Krańcowy utarg monopolisty, czyli dodatkowy utarg ze sprzedaży kolejnych jednostek, maleje dla całych rozmiarów popytu, gdyż wraz ze wzrostem sprzedaży monopolista jest zmuszony obniżać cenę na coraz większy wolumen produkcji.
Monopolista wybierze poziom produkcji maksymalizujący zysk przy rozmiarach, dla których , a następnie wyznaczy cenę odczytaną z krzywej popytu rynkowego, który jest jednocześnie popytem na wyroby monopolisty. Zazwyczaj cena ta jest wyższa niż poziom kosztów przeciętnych, dzięki czemu monopolista realizuje zyski ekonomiczne.
Firmy monopolistyczne wyznaczają produkcję na poziomie, który nie jest efektywny, bo nie produkują przy minimum krzywej kosztów przeciętnych. Monopoliści nie zapewniają również efektywności alokacyjnej, ponieważ sprzedają wyroby po cenie, która jest wyższa od kosztu krańcowego (dysponują siłą monopolową). W rezultacie podaż na rynkach zmonopolizowanych jest mniejsza, a cena wyższa niż w przypadku gałęzi doskonale konkurencyjnych. Monopoliści napotykają również na niewielkie bodźce skłaniające ich do inwestycji w innowacje, jako że nie muszą obawiać się wejścia na ich rynek nowych przedsiębiorstw.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
### References
Aboukhadijeh, Feross. “Chapter 20: Girding for War – The North and the South, 1861-1865.” StudyNotes, Inc. Accessed July 7, 2013. http://www.apstudynotes.org/us-history/outlines/chapter-20-girding-for-war-the-north-and-the-south-1861-1865/.
British Parliament. “(28 August 1833). Slavery Abolition Act 1833; Section LXIV.” Accessed July 2013. http://www.pdavis.nl/Legis_07.htm.
Dattel, E. (nd). "Cotton and the Civil War." Mississippi Historical Society. Accessed July 2013. http://mshistorynow.mdah.state.ms.us/articles/291/cotton-and-the-civil-war.
Gartner. 2015. “Gartner Says Tablet Sales Continue to Be Slow in 2015.” Accessed March 12, 2015. http://www.gartner.com/newsroom/id/2954317.
Grogan, David. 2015. “Federal Judge Finds AmEx’s Anti-Steering Rule Violates Antitrust Law.” American Booksellers Association. Accessed March 12, 2015. http://www.bookweb.org/news/federal-judge-finds-amex%E2%80%99s-anti-steering-rule-violates-antitrust-law.
Massachusetts Historical Society. “The Coming of the American Revolution 1764-1776: The Boston Tea Party.” Retrieved from http://www.masshist.org/revolution/teaparty.php.
Massachusetts Historical Society. “Whereas our Nation.” The Massachusetts Gazette, p. 2. Accessed July 2013 http://www.masshist.org/revolution/image-viewer.php?old=1&item_id=457&img_step=1&nmask=1&mode=large.
Pelegrin, William. 2015. “Judge Overrules Antitrust Case Against Google, Says Setting Default Search Engines Is Fair.” Digital Trends. Accessed March 12, 2015. http://www.digitaltrends.com/mobile/judge-tosses-out-google-antitrust-lawsuit/. |
# Konkurencja monopolistyczna i oligopol
## Wprowadzenie do rozdziału
Konkurencja doskonała i monopol znajdują się na przeciwległych krańcach spektrum struktur rynku. W gałęzi doskonale konkurencyjnej istnieje wiele przedsiębiorstw sprzedających identyczne produkty, wszystkie firmy działają jako biorcy ceny, a ich rynek nie jest chroniony żadnymi barierami wejścia (nie ma również żadnych barier wyjścia). Jako biorców cen lub cenobiorców (ang. ) określamy przedsiębiorstwa, które nie mają siły monopolowej. Muszą po prostu przyjąć cenę rynkową jako daną.
Monopol zaś powstaje, gdy tylko jedno przedsiębiorstwo sprzedaje produkt, dla którego nie ma żadnych bliskich substytutów. W Polsce przez wiele lat monopolistą pozostawała Poczta Polska, ponieważ tylko to przedsiębiorstwo oferowało usługi polegające na przekazywaniu przesyłek pocztowych. Ostatecznie ten zagwarantowany prawem monopol na przesyłanie listów o masie poniżej 50 g wygasł z początkiem 2013 r.
A co z ogromną większością realnie istniejących przedsiębiorstw, które znajdują się między tymi skrajnościami – firmami, które działają na rynkach niedoskonale konkurencyjnych (ang. )? Co determinuje ich zachowanie? Mają one większy wpływ na cenę niż przedsiębiorstwa doskonale konkurencyjne, ale nie tak silny jak monopol. Jaka zatem będzie ich strategia rynkowa?
Jednym z dwóch podstawowych rodzajów rynku konkurencji niedoskonałej jest konkurencja monopolistyczna (ang. ). Na rynkach konkurencji monopolistycznej działa duża liczba konkurujących ze sobą przedsiębiorstw. Sprzedawane przez nie produkty wprawdzie nieco się różnią, są jednak dość bliskimi substytutami. Rozważmy jako przykład Arkadię, jedno z centrów handlowych w Warszawie (choć równie dobrze mogłaby to być łódzka Manufaktura). Na początku 2022 r. w Arkadii mieściło się 97 sklepów, w których można było kupić artykuły określane przez właścicieli tego centrum jako moda (m.in. Bershka, Mango, Reserved i Zara). Dodatkowo, odzież można było też nabyć w istniejącym na terenie Arkadii supermarkecie i sklepach sprzedających akcesoria sportowe (np. Intersport i 4F). Większość rynków, na których sprzedaje się dobra konsumpcyjne ostatecznym nabywcom, zorganizowana jest na zasadach konkurencji monopolistycznej.
Innym rodzajem niedoskonale konkurencyjnego rynku jest oligopol (ang. ). Rynki oligopolistyczne to takie, na których funkcjonuje niewielka liczba przedsiębiorstw. Dobrym przykładem są producenci pasażerskich samolotów odrzutowych: Boeing, Airbus i Embrarer, którzy łącznie mają niemal 100% sprzedaży w tej gałęzi przemysłu. Innym przykładem jest amerykański (i polski!) przemysł napojów bezalkoholowych, na którym dominują Coca-Cola i PepsiCo. Oligopolem jest również światowy rynek samochodów osobowych, na którym działa kilkunastu producentów, a także polski rynek ubezpieczeń majątkowych (również kilkanaście podmiotów), na którym kupujemy ubezpieczenia aut. Oligopole charakteryzują się wysokimi barierami wejścia i współzależnością wszystkich działających na nich przedsiębiorstw. Podmioty na rynkach oligopolistycznych określają wolumen produkcji, ustalają ceny i podejmują inne decyzje strategiczne w oparciu o swoje przewidywania dotyczące zachowania konkurentów.
W pierwszej części niniejszego rozdziału pokażemy, w jaki sposób firmy na rynku konkurencji monopolistycznej wybierają poziom produkcji i ceny pozwalające na maksymalizację zysku. W drugim podrozdziale omówimy z kolei strategie przedsiębiorstw oligopolistycznych, które stoją w obliczu dwóch sprzecznych bodźców: legalnej lub nielegalnej współpracy, która zamieni ich branżę w faktyczny monopol, lub twardej walki konkurencyjnej polegającej na zwiększaniu sprzedaży i obniżaniu cen. Przedsiębiorstwa działające na rynkach oligopolistycznych, w zależności od konkretnych warunków, niekiedy mogą również wykorzystywać elementy strategii monopolistów i przedsiębiorstw działających w warunkach konkurencji doskonałej. |
# Konkurencja monopolistyczna i oligopol
## Konkurencja monopolistyczna
Konkurencja monopolistyczna obejmuje wiele przedsiębiorstw konkurujących ze sobą, ale sprzedających produkty, które – choć zaspokajają tę samą lub bardzo zbliżoną potrzebę – różnią się od siebie. Najbardziej typowymi przykładami rynków, na których konkurencję można opisać za pomocą tego modelu, są sklepy odzieżowe, restauracje, sklepy spożywcze, producenci nabiału i piwa, czyli produktów, które są bardzo do siebie zbliżone (konia z rzędem temu, kto w tzw. ślepej próbie rozpozna rozmaite marki masła czy sera edamskiego), ale różnią się w percepcji konsumentów ze względu na reklamę i siłę marki.
Pamiętajmy w tym kontekście, że w Polsce w 2020 r. działało blisko 65,5 tys. stałych i sezonowych placówek gastronomicznych. Gdy produkty są zróżnicowane (przynajmniej zdaniem potencjalnych nabywców), każde przedsiębiorstwo ma minimonopol na swój konkretny styl, smak lub nazwę marki. Większość z nas ma przecież ulubiony bar czy restaurację, choć trudno byłoby nam wyjaśnić postronnemu obserwatorowi, dlaczego na spotkanie z przyjaciółmi i rodzinny obiad wybieramy właśnie to konkretne miejsce. Jednak przedsiębiorstwa sprzedające tego typu dobra lub usługi, niezależnie od tego, jak bardzo klienci są przekonani o ich wyjątkowości, wciąż muszą rywalizować z podmiotami mającymi podobną ofertę. Termin „konkurencja monopolistyczna” ujmuje tę mieszankę minimonopolu i ostrej konkurencji, a poniższa opisuje jej pochodzenie.
### Różnicowanie produktów
Przedsiębiorstwo może próbować odróżnić swoje produkty od oferty konkurencji na kilka sposobów: wykorzystując ich fizyczne cechy, lokalizację miejsca sprzedaży, aspekty niematerialne, jak również przez postrzeganie i renomę rynkową swoich dóbr i usług. Proces ten nazywamy różnicowaniem produktów (ang. ).
Fizyczne aspekty produktu obejmują wszystkie słyszane w reklamach zwroty typu: „niezwykle wytrzymała na odkształcenia”, „nieprzywierająca powierzchnia”, „na nowo zaprojektowane dla twojej wygody”, czy nawet „bielszy odcień bieli”. Różnicę między producentami może również stanowić lokalizacja przedsiębiorstwa. Na przykład stacja benzynowa znajdująca się przy ruchliwej arterii prawdopodobnie będzie notować większe obroty niż ta zlokalizowana na uboczu, ponieważ przejeżdża obok niej więcej samochodów. Podobnie bar szybkiej obsługi umiejscowiony w pobliżu uniwersytetu sprzeda więcej kanapek i frytek niż ten na obrzeżach miasta. Z kolei wytwórca podzespołów samochodowych zapewne uzna, że korzystne jest ulokowanie swojego zakładu w pobliżu fabryki samochodów.
Różnicować produkty mogą również aspekty niematerialne, np.: obietnica zwrotu pieniędzy, jeśli produkt nam się nie spodoba, bezpłatna dostawa lub oferowanie (albo pośredniczenie w uzyskaniu) pożyczki na zakup danego dobra. Wreszcie różnice w postrzeganiu produktu mogą mieć całkowicie subiektywny charakter. Na przykład wiele osób nie potrafi odróżnić smaków popularnych odmian ketchupu lub majonezu, gdy nie widzi ich opakowania, ale nawyki i reklamy wyrobiły w nich silne preferencje w stosunku do określonych marek. Reklama może odgrywać rolę w kształtowaniu tych niematerialnych preferencji.
Pojęcie różnicowania produktów jest ściśle związane ze stopniem różnorodności dóbr i usług dostępnych na rynku. Gdyby wszyscy członkowie społeczeństwa chcieli nosić tylko niebieskie dżinsy, jeść wyłącznie biały chleb i pić wodę z kranu, rynki odzieży, żywności i napojów byłyby znacznie bliższe konkurencji doskonałej. Różnorodność oferowanych stylów, smaków, lokalizacji i cech, która odzwierciedla potrzeby klientów, powoduje zróżnicowanie produktów i tym samym istnienie konkurencji monopolistycznej.
### Popyt na produkt przedsiębiorstwa w konkurencji monopolistycznej
Popyt na produkt przedsiębiorstwa działającego w ramach w konkurencji monopolistycznej jest przypadkiem pośrednim między monopolem a konkurencją doskonałą, jakkolwiek stosunkowo bliskim konkurencji doskonałej.
przypomina, że krzywa popytu (ang. ) na dobro lub usługę przedsiębiorstwa doskonale konkurencyjnego jest doskonale elastyczna (ang. ) lub płaska, ponieważ firma doskonale konkurencyjna może sprzedać dowolną wielkość produkcji po cenie rynkowej (ang. ). W przeciwieństwie do tego krzywa popytu na produkt monopolisty jest nie tylko nachylona ujemnie, ale jest to również rynkowa krzywa popytu, ponieważ monopolista jest jedynym przedsiębiorstwem działającym na tym rynku. Natomiast z oczywistych względów krzywa popytu na produkty pojedynczego przedsiębiorstwa działającego w warunkach konkurencji (zarówno doskonałej, jak i monopolistycznej) różni się od rynkowej krzywej popytu.
Ponieważ istnieje wiele bliskich substytutów, krzywa popytu na produkt przedsiębiorstwa w konkurencji monopolistycznej jest bardziej elastyczna niż krzywa popytu dla monopolu, który nie ma żadnych konkurentów. Jeśli monopolista podniesie cenę, niektórzy konsumenci zrezygnują z zakupu jego produktu, ale wtedy będą musieli zaspokoić swoją potrzebę w inny sposób (rezygnacja z monopolistycznej oferty transportu publicznego w ich mieście spowoduje, że zaczną np. chodzić pieszo lub dojeżdżać na uczelnię rowerem). Natomiast gdy na ten sam krok zdecyduje się firma działająca w ramach konkurencji monopolistycznej, niektórzy konsumenci zrezygnują z zakupu produktu, ale inni przeniosą popyt na podobne dobro lub usługę oferowane przez konkurentów (jeśli jedna z wielu korporacji taksówkowych podniesie ceny, mogą nie tylko całkowicie zaprzestać korzystania z taksówek, lecz również wybrać dojazdy z inną firmą). Jeśli zatem przedsiębiorstwo w konkurencji monopolistycznej podniesie cenę, straci więcej klientów niż monopolista, ale utrzyma się na rynku. Natomiast przedsiębiorstwo działające w ramach konkurencji doskonałej w przypadku podniesienia ceny nie sprzeda nic.
Na pierwszy rzut oka krzywe popytu na produkty monopolisty i przedsiębiorstwa działającego w warunkach konkurencji monopolistycznej wyglądają podobnie – obie mają nachylenie ujemne. Jednak ich podstawowe znaczenie ekonomiczne jest inne, ponieważ monopolista napotyka na rynkową krzywą popytu, a przedsiębiorstwo działające w ramach konkurencji monopolistycznej nie. Krzywa popytu na produkt przedsiębiorstwa działającego w warunkach konkurencji monopolistycznej jest tylko jedną z wielu łącznie tworzących popyt dla całego rynku (gdyż na tym rynku działa wiele przedsiębiorstw). Czy rozumiesz tę różnicę? Jeśli tak, to jak sklasyfikujesz rynek piłek golfowych? Zastanów się, a następnie przejdź do .
### Jak przedsiębiorstwo działające w ramach konkurencji monopolistycznej wybiera wielkość produkcji i cenę
Przedsiębiorstwo działające w ramach konkurencji monopolistycznej decyduje o maksymalizujących zysk wielkości produkcji i cenie w sposób analogiczny jak monopolista. Ono również ma do czynienia z opadającą krzywą popytu, więc wybierze jedną z leżących na niej kombinacji ceny i wolumenu produkcji.
Jako przykład maksymalizującego zysk przedsiębiorstwa działającego w ramach konkurencji monopolistycznej niech posłuży mała restauracyjka o nazwie Prawdziwie Polska Pizza, której specjalnością są placki z ketchupem, oscypkiem i wyborem polskich kiełbas. Chociaż Prawdziwie Polska Pizza musi konkurować z innymi pizzeriami i knajpkami oferującymi kuchnię polską i międzynarodową, to w kontekście tego rodzaju działalności mamy do czynienia ze zróżnicowanym produktem. Krzywa popytu, jaką napotyka firma, ma nachylenie ujemne, tak jak to zostało pokazane na i w dwóch pierwszych kolumnach .
Aby policzyć utarg całkowity przedsiębiorstwa wskazany w trzeciej kolumnie , musimy pomnożyć cenę przez zapotrzebowanie właściwe dla każdego punktu na krzywej popytu. W czwartej kolumnie tabeli został wskazany utarg krańcowy, który jest obliczany jako iloraz zmiany utargu całkowitego i zmiany wielkości produkcji. Ostatnie trzy kolumny wskazują koszty całkowite, koszt krańcowy i koszt przeciętny. Koszt krańcowy obliczamy, dzieląc zmianę kosztów całkowitych przez zmianę wielkości produkcji, a koszt przeciętny ustalamy, dzieląc koszty całkowite przez wielkość produkcji. Więcej w poniższej .
Chociaż proces podejmowania przez przedsiębiorstwo działające w ramach konkurencji monopolistycznej decyzji ilościowych i cenowych jest podobny do sposobu, w jaki decyzje te podejmuje monopolista, warto pamiętać o dwóch różnicach. Po pierwsze, mimo że zarówno monopolista, jak i monopolistyczny konkurent mają do czynienia z krzywymi popytu o ujemnym nachyleniu, krzywa popytu monopolisty jest rynkową krzywą popytu, natomiast krzywa popytu przedsiębiorstwa działającego w ramach konkurencji monopolistycznej jest silnie zdeterminowana zakresem, w jakim stara się ono odróżnić swój produkt od dóbr lub usług oferowanych przez konkurentów i od liczby tych konkurentów. Po drugie, w monopolu istnieją nieprzekraczalne bariery wejścia i monopolista nie obawia się zaistnienia nowych przedsiębiorstw w gałęzi. Natomiast monopolistyczny konkurent osiągający zysk ekonomiczny musi spodziewać się wejścia do branży firm oferujących zbliżony produkt.
### Przedsiębiorstwa działające w ramach konkurencji monopolistycznej a decyzje o wejściu do gałęzi
Jeśli jakieś przedsiębiorstwo działające w ramach konkurencji monopolistycznej osiąga zysk ekonomiczny, to inne firmy będą chciały wejść na ten rynek. Doskonale zlokalizowana stacja benzynowa (np. przy drodze wylotowej z dużej aglomeracji) powinna bardzo poważnie obawiać się nie tylko otwarcia nowych punktów w najbliższej okolicy, ale również tego, że nowe stacje benzynowe będą oferować dodatkowo kawę i drobne przekąski lub możliwość umycia auta. Odnoszącą sukcesy restaurację z wyjątkowo smacznymi pierogami musi niepokoić możliwość, że inne punkty gastronomiczne będą próbowały skopiować przepis na to danie lub zaproponować smaczniejsze potrawy i darmowe napoje. Producent proszku do prania cieszącego się doskonałą reputacją musi mieć na uwadze, że konkurenci zapewne będą dążyć do utrwalenia wśród konsumentów pozytywnych opinii o swoich produktach.
Wejście nowych przedsiębiorstw na konkretny rynek (np. detalicznej sprzedaży paliw, restauracji lub środków do prania) przesuwa krzywą popytu na produkty pojedynczego przedsiębiorstwa w konkurencji monopolistycznej. Gdy nowe firmy wejdą na rynek, wielkość zapotrzebowania przy każdym poziomie ceny dla wszystkich przedsiębiorstw sprzedających swoje dobra lub usługi na tym rynku spadnie, a tym samym ich krzywe popytu przesuną się w lewo. To przesunięcie doprowadzi do analogicznego ruchu krzywą utargu krańcowego, która również przesunie się w lewo. To z kolei przyniesie zmniejszenie wielkości produkcji dostarczanej przez każde z przedsiębiorstw na rynek, bowiem utarg krańcowy i koszt krańcowy zrównają się, wyznaczając mniejszy wolumen produkcji.
Panel (a) na pokazuje sytuację, w której przedsiębiorstwo działające w ramach konkurencji monopolistycznej osiąga zysk przy początkowej krzywej popytu (D0). Przecięcie krzywej utargu krańcowego (MR0) i krzywej kosztu krańcowego (MC) następuje w punkcie S, odpowiadającym produkcji na poziomie Q0. Z krzywej popytu wynika, że dla tego wolumenu produkcji cena rynkowa będzie wynosić P0. Punkt T, oznaczający kombinację ceny P0 i ilości Q0, leży powyżej krzywej kosztów przeciętnych, co oznacza, że firma osiąga dodatnie zyski ekonomiczne.
W przeciwieństwie do monopolu, chronionego nieprzekraczalnymi barierami wejścia, przedsiębiorstwa działające w warunkach konkurencji monopolistycznej, jeśli tylko notują zyski ekonomiczne, muszą się liczyć z wejściem na ich rynek kolejnych podmiotów. Kiedy nowe firmy wchodzą na rynek, krzywe popytu przedsiębiorstw zasiedziałych w branży przesuwają się w lewo, z D0 do D1, a związane z nią krzywe utargu krańcowego przesuwają się z MR0 do MR1. Nowa produkcja maksymalizująca zysk to Q1, ponieważ przecięcie MR1 i MC występuje teraz w punkcie U. Dla tego wolumenu produkcji i zgodnie z nową krzywą popytu cena rynkowa wynosi P1.
Dopóki przedsiębiorstwa działające w danej gałęzi osiągają dodatnie zyski ekonomiczne, nowi konkurenci będą wchodzić na rynek, zmniejszając popyt i utarg krańcowy zasiedziałych firm. Długookresowa równowaga takiego przykładowego przedsiębiorstwa wskazana jest na wykresie przez punkt Y, w którym krzywa popytu na produkty działającego od dawna podmiotu jest styczna do krzywej kosztu przeciętnego. Gdy cena jest równa kosztowi przeciętnemu, zyski ekonomiczne wynoszą zero. Tak więc, chociaż przedsiębiorstwo w konkurencji monopolistycznej może osiągać dodatnie zyski ekonomiczne w krótkim okresie, to w długim okresie nowi producenci zwabieni owymi zyskami rozpoczną działalność w tej gałęzi i obniżą zyski ekonomiczne do zera. Pamiętaj, że zerowy zysk ekonomiczny nie jest równoznaczny z zerowym zyskiem księgowym (ang. ). Zerowy zysk ekonomiczny oznacza, że zysk księgowy jest dodatni i równy kosztom alternatywnym kapitału i pracy zaangażowanych w działalność tego przedsiębiorstwa (jest równy temu, ile czynniki produkcji wykorzystane w firmie mogłyby zarobić, gdyby zostały wykorzystane w kolejny najlepszy sposób). Panel (b) na przedstawia z kolei sytuację odwrotną, w której typowe przedsiębiorstwo działające w warunkach konkurencji monopolistycznej ponosi straty. Sposób dostosowania do stanu długookresowej równowagi jest analogiczny jak w przypadku krótkookresowych zysków nadzwyczajnych. Straty ekonomiczne sprawiają, że część firm opuszcza gałąź, co powoduje wzrost popytu na produkty przedsiębiorstw kontynuujących działalność, a w konsekwencji stopniowo zmniejsza ich straty. Proces ten będzie trwał dopóty, dopóki typowe przedsiębiorstwo przestanie notować straty ekonomiczne, czyli jego krzywa popytu stanie się styczna do krzywej jego kosztu przeciętnego (punkt Z).
Przedsiębiorstwa w konkurencji monopolistycznej mogą osiągać zysk ekonomiczny lub ponosić stratę w krótkim okresie, ale w długim swoboda wejścia i wyjścia z gałęzi doprowadzi zysk ekonomiczny do zera. Jednak zerowy zysk ekonomiczny w branży, w której mamy do czynienia z konkurencją monopolistyczną, nie oznacza sytuacji identycznej jak w długookresowej równowadze gałęzi doskonale konkurencyjnej. Różnice są związane zarówno z kryterium efektywności, jak i szerokością oferty rynkowej.
### Konkurencja monopolistyczna a efektywność
Długookresowym rezultatem pełnej swobody wejścia i wyjścia na doskonale konkurencyjnym rynku jest to, że wszystkie firmy sprzedają po cenie określonej przez minimum kosztu przeciętnego (najniższy punkt na krzywej). Oznacza to, że doskonała konkurencja wykazuje efektywność produkcyjną (ang. ): dobra lub usługi są produkowane po najniższych możliwych kosztach przeciętnych. Jednak w warunkach konkurencji monopolistycznej konsekwencje niemal całkowitej swobody wejścia i wyjścia z gałęzi będą inne. Przedsiębiorstwa wyznaczą cenę, która znajdzie się na opadającej części krzywej kosztu przeciętnego (AC), a nie w punkcie jej minimum. Konkurencja monopolistyczna nie będzie zatem efektywna produkcyjnie.
Na rynku doskonale konkurencyjnym każde przedsiębiorstwo wytwarza wolumen produkcji, dla którego cena jest równa kosztowi krańcowemu, zarówno w krótkim, jak i w długim okresie. Oznacza to, że konkurencja doskonała wykazuje również efektywność alokacyjną (ang. ): społeczne korzyści z dodatkowej produkcji (dodatkowo wytworzonych jednostek), mierzone ceną tych jednostek, która odzwierciedla korzyść krańcową, są jednocześnie – z punktu widzenia społeczeństwa – równe kosztom krańcowym produkcji.
Na rynku konkurencji monopolistycznej, podobnie jak na każdym innym, regułą maksymalizacji zysku jest zasada, zgodnie z którą koszt krańcowy i utarg krańcowy są sobie równe , ale cena jest wyższa niż utarg krańcowy, ponieważ krzywa popytu na produkty pojedynczego przedsiębiorstwa ma nachylenie ujemne (firma taka dysponuje siłą monopolową). W sytuacji, w której cena przewyższa koszt krańcowy , co jest charakterystyczne dla równowagi długookresowej firm działających w ramach konkurencji monopolistycznej, mierzone ceną rynkową korzyści społeczne związane z wytworzeniem i sprzedażą dodatkowej jednostki produkcji przewyższają krańcowe koszty społeczne związane z produkcją tej jednostki. Ze społecznego punktu widzenia korzystne byłoby zatem zwiększanie produkcji aż do momentu, w którym malejąca cena i koszt krańcowy się zrównają. Przedsiębiorstwo będące monopolistycznym konkurentem nie ma jednak bodźców do zwiększania produkcji (perspektywy indywidualne i społeczne są w tym przypadku odmienne), co oznacza, że społeczeństwo traci korzyść netto z tych niewyprodukowanych jednostek. W monopolu sytuacja jest oczywiście analogiczna, ale ze względu na to, że konkurenci monopolistyczni dysponują znacznie mniejszą siłą monopolową (nadwyżka ceny nad kosztem krańcowym jest mniejsza), w warunkach konkurencji monopolistycznej nieefektywność alokacyjna jest mniejsza niż w monopolu. A zatem w warunkach konkurencji monopolistycznej wielkość produkcji będzie mniejsza, a cena większa niż dla konkurencji doskonałej, ale wolumen produkcji będzie wyższy, a cena niższa niż w hipotetycznej sytuacji monopolu na rynku. Zobacz kolejną , aby dowiedzieć się więcej na temat możliwych konsekwencji przesunięć krzywej popytu.
Gałąź, która funkcjonuje zgodnie z zasadami konkurencji monopolistycznej, nie wykazuje efektywności produkcyjnej i alokacyjnej ani w krótkim okresie, kiedy przedsiębiorstwa osiągają zyski i straty ekonomiczne, ani w długim, kiedy przedsiębiorstwa osiągają zerowe zyski ekonomiczne.
### Korzyści z różnorodności i zróżnicowania produktów
Mimo że konkurencja monopolistyczna nie zapewnia efektywności produkcyjnej ani alokacyjnej, sama w sobie przynosi korzyści konsumentom i społeczeństwu. Proces różnicowania produktów opiera się na innowacyjności i podążaniu za preferencjami nabywców. Większość z nas woli żyć w gospodarce z wieloma rodzajami ubrań, żywności i marek samochodów, a nie w świecie doskonałej konkurencji, gdzie wszyscy zawsze będą nosić jednakowe niebieskie dżinsy i białe koszule, jeść takie same mięsne pierogi ze skwarkami i jeździć identycznym modelem samochodu. Przeważająca część społeczeństwa preferuje rozwiązania, które sprawiają, że przedsiębiorstwa starają się znaleźć sposoby na przyciągnięcie klientów metodami takimi jak przyjazna obsługa, bezpłatna dostawa, gwarancja zwrotu środków i ciągłe udoskonalanie produktów, które zwiększa ich dostępne na rynku spektrum. Z drugiej strony, wielu z nas nie zdaje sobie sprawy, jak wiele kosztuje wszystkich ten – imponujący na pierwszy rzut oka – wybór. Jeśli nie potrafimy w pełni ocenić użyteczności związanej z zakupem danego produktu (tak dzieje się choćby z tzw. suplementami diety), to reklama nie tyle dostarcza nam użytecznych informacji, ile nami manipuluje. W końcu, na ile różnią się między sobą te wszystkie preparaty witaminowe i czy naprawdę potrzebujemy tak wielu marek na rynku?
Ekonomiści od wielu lat usiłują, niestety z bardzo umiarkowanym powodzeniem, odpowiedzieć na pytanie o to, czy gospodarka rynkowa wytwarza optymalną ilość różnorodności. Krytycy rozwiązań opartych na nieskrępowanej wolności gospodarczej twierdzą, że społeczeństwo tak naprawdę nie potrzebuje dziesiątek różnych marek i modeli butów sportowych, rodzajów płatków śniadaniowych czy samochodów. Uważają, że znaczna część kosztów tak daleko posuniętego procesu różnicowania produktów, którego konsekwencją są późniejsze wydatki na reklamę i inne działania marketingowe, jest społecznie bezproduktywna, co oznacza, że większość ludzi byłaby równie zadowolona, gdyby dostępne spektrum wyborów było nawet znacznie mniejsze, jeśli doprowadziłoby to do obniżki cen (kilka zamiast kilkudziesięciu rodzajów żółtego sera, którego cena byłaby jednak znacznie niższa).
Obrońcy rozwiązań rynkowych odpowiadają, że jeśli ludzie nie chcą kupować całej gamy zróżnicowanych produktów lub intensywnie reklamowanych marek, nikt ich do tego nie zmusza. Na rynku przecież może pojawić się produkt, który będzie wykorzystywał niską cenę jako swój atut podstawowy (tak jak marka Dosia, której proszki do prania były oceniane przez przeciętnego nabywcę jako równie skuteczne jak intensywnie reklamowane marki, w związku z czym „jeśli nie widać różnicy, to po co przepłacać”). Problem ten może nigdy nie zostać w pełni rozwiązany, po części dlatego, że podjęcie decyzji o optymalnej ilości różnorodności jest bardzo trudne, a po części z powodu faktu, że obie strony różnie wartościują to, co różnorodność oznacza dla konsumentów. Warto jednak zwrócić uwagę na postępującą zmianę preferencji konsumentów (szczególnie młodych), którzy – w związku z szeroko dyskutowanym problemem zmian klimatycznych – ograniczają konsumpcję i preferują znacznie mniejsze zróżnicowanie produktów dostępnych na rynku. Przeczytaj kolejną , aby zrozumieć rolę, jaką reklama odgrywa w konkurencji monopolistycznej.
### Kluczowe pojęcia i podsumowanie
Pojęcie konkurencji monopolistycznej odnosi się do rynku, na którym wiele przedsiębiorstw sprzedaje zróżnicowane produkty. Proces różnicowania produktów może wykorzystywać ich fizyczne cechy, lokalizację miejsca sprzedaży, aspekty niematerialne, jak również postrzeganie i renomę rynkową.
Krzywa popytu na produkty przedsiębiorstwa będącego monopolistycznym konkurentem ma nachylenie ujemne, co oznacza, że firma ta ma wpływ na cenę rynkową swoich produktów i sama wybiera kombinację ceny i wielkości sprzedaży. Jednak indywidualna krzywa popytu postrzegana przez przedsiębiorstwa funkcjonujące w ramach konkurencji monopolistycznej jest bardziej elastyczna niż krzywa popytu monopolisty, ponieważ podmioty te muszą konkurować z innymi firmami produkującymi i sprzedającymi dobra lub usługi zaspokajające tę samą potrzebę. Maksymalizujące zysk przedsiębiorstwo działające w ramach konkurencji monopolistycznej będzie poszukiwało takiej wielkości produkcji, dla której utarg krańcowy jest równy kosztowi krańcowemu . Następnie wyznaczy cenę, którą odczyta ze swojej indywidualnej krzywej popytu.
Jeśli przedsiębiorstwa działające w ramach konkurencji monopolistycznej będą osiągać zyski ekonomiczne, stworzy to bodźce zachęcające nowe podmioty do wchodzenia na ten rynek. Zachęty ustaną dopiero wtedy, gdy w długim okresie zyski ekonomiczne wszystkich konkurentów na rynku zostaną sprowadzone do zera. Jeśli przedsiębiorstwa działające w ramach konkurencji monopolistycznej będą ponosić straty ekonomiczne, wówczas część z nich zacznie opuszczać rynek. Proces ten ustanie dopiero wtedy, gdy w długim okresie wszystkie przedsiębiorstwa działające na rynku osiągną zerowy zysk ekonomiczny.
Firmy będące monopolistycznymi konkurentami nie są efektywne produkcyjnie, ponieważ ich wolumen produkcji nie jest równy minimum długookresowego kosztu przeciętnego (nie produkują po najniższym możliwym koszcie). Nie są też efektywne alokacyjnie, ponieważ nie produkują zgodnie z warunkiem , lecz . A zatem przedsiębiorstwa działające w warunkach konkurencji monopolistycznej będą wytwarzały drożej (przy wyższych kosztach) mniejszy wolumen produkcji i sprzedawały go po wyższej cenie niż przedsiębiorstwa doskonale konkurencyjne.
Gałęzie, w których występuje konkurencja monopolistyczna, oferują konsumentom korzyści w postaci większej różnorodności produktów, nabywcy są również beneficjentami nieustannego procesu ulepszania i uatrakcyjniania sprzedawanych dóbr i usług. Wśród ekonomistów istnieje jednak utrzymująca się różnica zdań dotycząca tego, czy gospodarka rynkowa nie generuje zbyt dużej różnorodności, co może przekładać się na znaczny wzrost kosztów wytwarzania i cen rynkowych.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Problemy
### Bibliografia
The United States Department of Justice. „Antitrust Division.” Accessed October 17, 2013. http://www.justice.gov/atr/.
eMarketer.com. 2014. „Total US Ad Spending to See Largest Increase Since 2004: Mobile advertising leads growth; will surpass radio, magazines and newspapers this year. Accessed March 12, 2015. http://www.emarketer.com/Article/Total-US-Ad-Spending-See-Largest-Increase-Since-2004/1010982.
Federal Trade Commission. „About the Federal Trade Commission.” Accessed October 17, 2013. http://www.ftc.gov/ftc/about.shtm.
Kantar Media. “Our Insights: Infographic—U.S. Advertising Year End Trends Report 2012.” Accessed October 17, 2013. http://kantarmedia.us/insight-center/reports/infographic-us-advertising-year-end-trends-report-2012.
Statistica.com. 2015. “Number of Restaurants in the United States from 2011 to 2014.” Accessed March 27, 2015. http://www.statista.com/statistics/244616/number-of-qsr-fsr-chain-independent-restaurants-in-the-us/.
Federal Trade Commission. “About the Federal Trade Commission.” Accessed October 17, 2013. http://www.ftc.gov/ftc/about.shtm. |
# Konkurencja monopolistyczna i oligopol
## Oligopol
Wiele dóbr i usług jest kupowanych przez ludzi na rynkach, które nie są doskonale konkurencyjne ani zmonopolizowane i nie występuje na nich konkurencja monopolistyczna. Są to rynki określane mianem oligopoli. Oligopol (ang. ) występuje w gałęzi, w której niewielka liczba relatywnie dużych przedsiębiorstw odpowiada za całość lub większość wolumenu produkcji i sprzedaży. Znamy wiele przykładów oligopoli, obejmują one m.in. przemysł samochodowy, operatorów telewizji kablowej i linie lotnicze. Firmy oligopolistyczne mogą z jednej strony prowadzić bezpardonową walkę konkurencyjną, która obniży ich zyski niemal do zera, a z drugiej porozumieć się i w praktyce w ogóle nie konkurować. Jeśli oligopoliści ze sobą konkurują, mogą zachowywać się jak przedsiębiorstwa doskonale konkurencyjne i sprzedawać po cenie równej minimum długookresowych kosztów przeciętnych. Jednak jeśli zawrą zmowę, mogą skutecznie działać jak monopolista i zagwarantować sobie zyski ekonomiczne w długim okresie. W ramach oligopolu działa na tyle mało firm, że koszty zawarcia i utrzymywania takiego porozumienia są relatywnie niewielkie, w każdym razie w porównaniu z postrzeganymi korzyściami. Charakteryzując strategie firm konkurujących w ramach oligopolu, kładziemy największy nacisk na ich wzajemną współzależność. Wielkość sprzedaży, strategie marketingowe, cena rynkowa i zyski każdego z przedsiębiorstw w takim samym stopniu zależą od jego własnych decyzji, jak i od posunięć konkurentów. Przedsiębiorstwa oligopolistyczne zawsze również wystawione są na pokusę zawarcia zmowy w miejsce uczciwego konkurowania. Decyzja o ewentualnym porozumieniu będzie oczywiście pochodną analizy korzyści i kosztów związanych z każdym z tych dwóch wyborów.
### Jak powstają oligopole?
Połączenie wysokich barier wejścia (w oligopolu są to najczęściej nakłady finansowe związane z rozpoczęciem działalności) oraz będącego odpowiedzią na potrzeby klientów procesu różnicowania produktów może stworzyć warunki do powstania oligopolu. Na przykład, aby produkować samochody lub telefony komórkowe, niezbędne są nie tylko gigantyczne wydatki na badania i rozwój, lecz również liczne zakłady produkcyjne. Oznacza to konieczność poniesienia bardzo wysokich nakładów przed rozpoczęciem produkcji. Z drugiej strony, zarówno samoloty, jak i komórki to dobra, które stosunkowo łatwo dają się różnicować. Stąd w obu gałęziach mamy do czynienia z globalnymi oligopolami. Niekiedy źródłem oligopolu jest polityka państwa, które może przyznać koncesje na świadczenie usług telefonii komórkowej nie jednemu (i nie 50), tylko trzem lub czterem podmiotom.
Podobnie jak w kontekście monopolu naturalnego (ang. ), który pojawia się w gałęzi wówczas, gdy wielkość popytu rynkowego pozwala tylko jednemu przedsiębiorstwu na produkcję przy minimum długookresowych kosztów przeciętnych, również powstanie oligopolu może być konsekwencją specyficznej relacji między popytem rynkowym a kształtem krzywej kosztów przeciętnych typowego przedsiębiorstwa w danej gałęzi. W przypadku monopolu naturalnego na rynku jest miejsce tylko dla jednego przedsiębiorstwa, ponieważ żadna mniejsza firma nie może działać przy wystarczająco niskich kosztach przeciętnych, aby móc konkurować z podmiotem, który jako pierwszy zdołał obniżyć koszty, a żadna większa firma nie mogłaby sprzedać tego, co by wyprodukowała, wziąwszy pod uwagę wielkość popytu rynkowego.
Wielkość zapotrzebowania (ang. ) na rynku może być jednak również dwu- lub trzykrotnie większa niż wielkość produkcji odpowiadająca minimum krzywej długookresowych kosztów przeciętnych typowego przedsiębiorstwa, co oznacza, że na rynku jest miejsce tylko dla dwóch lub trzech firm oligopolistycznych (i wówczas nie muszą one wytwarzać zróżnicowanych produktów). Ponownie, mniejsze przedsiębiorstwa miałyby wyższe koszty przeciętne i nie byłyby w stanie konkurować, podczas gdy dodatkowe duże przedsiębiorstwa wyprodukowałyby tak wiele, że nie byłyby w stanie sprzedać produkcji po opłacalnej cenie. Takie połączenie korzyści skali i popytu rynkowego tworzy barierę wejścia, która doprowadziła do powstania oligopolu Boeing-Airbus (zwanego również duopolem) dla szerokokadłubowych samolotów pasażerskich.
Zróżnicowanie produktów stanowiące rdzeń konkurencji monopolistycznej może również odgrywać istotną rolę w tworzeniu oligopoli. Na przykład przedsiębiorstwa, które chciałyby wykreować rozpoznawalną w skali globalnej lub przynajmniej krajowej, markę, muszą się liczyć z tym, że wydatki na reklamę i promocję będą bardzo wysokie. Aby pozwolić sobie na tak pokaźne nakłady, firma musi osiągnąć pewien minimalny próg obrotu. Potencjalni konkurenci przedsiębiorstw wytwarzających napoje pod markami Coca-Cola i Pepsi nie tyle napotykają problem technologiczny (wytwarzanie napojów gazowanych nie jest wszak zbyt skomplikowane), ile finansowy. W końcu stworzenie marki i wysiłek marketingowy dorównujący temu, który jest charakterystyczny dla właścicieli marek Coca-Cola czy Pepsi, to ogromne finansowe wyzwanie.
### Zmowa czy konkurencja?
Kiedy przedsiębiorstwa działające w ramach oligopolu podejmują decyzję dotyczącą optymalnej – z ich punktu widzenia – wielkości produkcji i ceny rynkowej, napotykają pokusę, aby zamiast konkurować, zachowywać się tak, jakby były monopolistą posiadającym wiele zakładów produkcyjnych. Działając razem i w porozumieniu, mogą ograniczać produkcję całej gałęzi, co doprowadzi do podwyższenia cen i pozwoli wypracować dodatkowy zysk ekonomiczny. Kiedy przedsiębiorstwa działają razem w celu zmniejszenia produkcji i utrzymania wysokich cen, nazywa się to zmową (ang. ). Grupa przedsiębiorstw, które zawierają takie porozumienie (zmawiają się ze sobą), zmniejszają wolumen produkcji i podnoszą cenę rynkową, nazywana jest kartelem (ang. ). Przeczytaj kolejną , aby dowiedzieć się więcej na temat różnic między zmową a kartelem.
Ekonomiści doskonale zdają sobie sprawę, że istnieją silne bodźce skłaniające przedsiębiorstwa do unikania konkurencji, podnoszenia cen i zwiększania zysków. Adam Smith napisał w Bogactwie narodów (Wealth of Nations) w 1776 r.: „Ludzie z tej samej branży rzadko spotykają się razem, nawet dla zabawy i rozrywki, ale (jeśli już tak się dzieje) rozmowa kończy się spiskiem przeciwko społeczeństwu lub jakimś sposobem na podniesienie cen”.
Nawet jeśli oligopoliści uznają, że działając jako grupa, odnieśliby korzyści, gdyż doprowadziliby do monopolizacji swojej branży, każdy z podmiotów uczestniczących w zmowie konfrontuje się z pokusą, aby nieco zwiększyć rozmiary produkcji (w stosunku do uzgodnionego w ramach kartelu wolumenu) i osiągać nieco większy zysk, licząc na to, że inni uczestnicy zmowy dotrzymają porozumienia. Jeśli dostatecznie duża grupa oligopolistów ulegnie tej pokusie i zacznie zwiększać produkcję, wówczas cena rynkowa spadnie. W konsekwencji nawet relatywnie bardzo mała grupa oligopolistów (dwa lub trzy przedsiębiorstwa), zamiast stworzyć kartel, będzie tak zaciekle konkurować, że wszystkie osiągną zerowe zyski ekonomiczne, tak jakby były firmami działającymi w ramach konkurencji doskonałej.
### Dylemat więźnia
Ze względu na wysoki stopień komplikacji sposobu postępowania przedsiębiorstw działających w ramach oligopolu, będący pochodną ich wzajemnych zależności, nie ma jednej, ogólnie przyjętej teorii (ani jednego modelu) opisującej sposób postępowania oligopolistów, tak jak było to w przypadku omówionych wcześniej struktur rynkowych. Zamiast tego ekonomiści wykorzystują teorię gier (ang. ), tj. dział matematyki analizujący sytuacje, w których uczestnicy pewnych gier podejmują decyzje charakterystyczne dla danego problemu, zaś ich wypłaty zależą nie tylko od ich decyzji, lecz również od posunięć innych graczy. Teoria gier znalazła szerokie zastosowanie w naukach społecznych, również w zarządzaniu, prawie i strategii wojskowej.
Dylemat więźnia (ang. ) to gra, w której korzyści ze współpracy – z punktu widzenia biorących w niej udział podmiotów – są większe niż korzyści z forsowania wyłącznie własnego interesu (teoretycy teorii gier powiedzieliby, że strategia pokojowa jest lepsza niż strategia konfliktu). Nie zmienia to faktu, że gracze mimo wszystko dość często wybierają strategię konfliktu. Dzięki temu dylemat więźnia bardzo dobrze nadaje się do analizy decyzji oligopolistów. Pierwotny scenariusz gry przedstawia się w sposób następujący:
Opisany za pomocą teorii gier problem decyzyjny, przed którym stoją dwaj więźniowie, został przedstawiony w . Aby zrozumieć dylemat, najpierw rozważmy wybory z punktu widzenia więźnia A. Jeśli wierzy on, że więzień B przyzna się do winy, to on sam także powinien się przyznać, aby nie utknąć w więzieniu na osiem lat. Jeśli jednak więzień A wierzy, że wspólnik nie pójdzie na współpracę z policją, wówczas pokusa, aby postępować samolubnie i przyznać się, by odsiedzieć tylko rok, stanie się nieodparta. Kluczową kwestią jest to, że więzień A ma motywację do przyznania się, bez względu na decyzję podjętą przez więźnia B! Więzień B ma te same opcje wyboru, a zatem będzie miał motywację do przyznania się bez względu na wybór dokonany przez więźnia A. Używając języka teorii gier, przyznanie się do winy jest zatem strategią dominującą w tej rozgrywce. Określenie to odnosi się do sposobu postępowania, który gracz (osoba lub przedsiębiorstwo) wybierze, niezależnie od decyzji drugiego gracza. Rezultat jest taki, że jeśli więźniowie kierują się wyłącznie własnym interesem (wybierają strategię konfliktu), obaj prawdopodobnie zdecydują się na współpracę z policją i dostaną łącznie 10 lat więzienia (tj. po 5 lat każdy). Gdyby solidarnie milczeli (wybrali strategię pokojową), łącznie spędziliby za kratkami tylko 4 lata (po dwa lata każdy). Stąd „dylemat” w nazwie gry. Czy postępować zgodnie ze strategią dominującą i sypać, czy utrzymać swoistą formę współpracy ze wspólnikiem, milczeć i spędzić w więzieniu tylko dwa lata (zamiast pięciu)?
### Oligopolistyczna wersja dylematu więźnia
Również przedsiębiorstwa działające w ramach oligopolu mogą mieć do czynienia z dylematem więźnia. Jeśli każdy z oligopolistów będzie współpracował i ograniczał produkcję, wszystkim firmom zaangażowanym w ten proceder uda się osiągnąć wysokie zyski monopolowe. Każdy oligopolista musi się jednak liczyć z tym, że podczas gdy sam ograniczy produkcję, inne przedsiębiorstwa zaczną zwiększać jej wolumen, wykorzystując wysoką cenę i realizując tym samym jeszcze wyższe zyski. ilustruje dylemat więźnia w kontekście decyzji podejmowanych przez dwóch oligopolistów, w tzw. duopolu (ang. ). Jeśli przedsiębiorstwa A i B zgodzą się na ograniczenie produkcji, to działając razem jak monopol, każde osiągnie 1000 zł zysku dziennie. Jednak dominującą strategią dla obu przedsiębiorstw jest zwiększenie produkcji (łamanie porozumienia); w takim przypadku każde z nich uzyska zysk równy jedynie 400 zł dziennie.
Czy duopoliści mogą sobie ufać? Rozważ sytuację przedsiębiorstwa A:
Jeśli przedsiębiorstwo A podejrzewa, że firma B zerwie umowę i zwiększy produkcję, A również zawczasu zwiększy produkcję, ponieważ dla A zysk w wysokości 400 zł (w sytuacji, w której oba podmioty produkują dużo – prawy dolny róg ) jest korzystniejszy niż zysk w kwocie 200 zł (w sytuacji, w której firma A utrzyma produkcję na niskim poziomie, a B ją zwiększy – prawy górny róg tabeli).
Jednak jeśli przedsiębiorstwo A zakłada, że firma B będzie współpracowała i utrzyma produkcję na niskim poziomie, wówczas przedsiębiorstwo A tym bardziej może wykorzystać okazję do osiągnięcia wyższych zysków przez zwiększenie produkcji. W końcu jeśli B zamierza produkować mało, to A może zarobić 1500 zł (dzięki dużej produkcji – dolny lewy róg tabeli), zamiast kontentować się zyskiem w kwocie 1000 zł (jeśli będzie ograniczać produkcję – górny lewy róg tabeli).
W związku z tym przedsiębiorstwo A uzna za opłacalne zwiększanie produkcji zarówno wtedy, gdy firma B ją ogranicza, jak i wtedy, gdy B ją zwiększy. Przedsiębiorstwo B stoi w obliczu podobnych bodźców, które najprawdopodobniej doprowadzą je do zwiększenia produkcji.
W konsekwencji dylemat więźnia, z jakim skonfrontowane zostają przedsiębiorstwa działające w ramach oligopolu, prowadzi do sytuacji, w której mimo iż przedsiębiorstwa A i B mogą osiągnąć najwyższe możliwe łączne zyski, współpracując w ograniczaniu produkcji i zachowując się jak monopolista, to każde z nich produkuje dużo i kończy z zyskami na poziomie 400 zł. Poniższa opisuje jeden ze szczególnie bulwersujących przypadków powstania kartelu w USA.
### Czy współpracę można wymusić?
Jak podmioty, które mają do czynienia z dylematem więźnia, mogą uniknąć niepożądanej walki i współpracować ze sobą? Oczywistym rozwiązaniem byłoby znalezienie sposobu na ukaranie tych, którzy nie współdziałają.
Prawdopodobnie najłatwiejszym z punktu widzenia oligopolistów uczestniczących w zmowie sposobem, jaki można sobie wyobrazić, byłoby podpisanie formalnej umowy o utrzymywaniu niskiej produkcji i wysokich cen (ze wskazaniem kar umownych). Gdyby jednak grupa przedsiębiorstw w jakimkolwiek kraju (Polsce, USA czy w ramach UE) podpisała taką umowę, byłoby to jawne złamanie prawa zagrożone sankcją karną. Niektóre organizacje międzynarodowe, np. zrzeszające kraje będące członkami Organizacji Krajów Eksportujących Ropę Naftową (OPEC – ang. Organization of Petroleum Exporting Countries), podpisały umowy międzynarodowe, aby działać jak monopol, ograniczać produkcję i utrzymywać wysokie ceny w celu osiągania wysokich zysków z eksportu ropy. Jednak takie umowy między państwami znajdują się w szarej strefie prawa międzynarodowego i nie poddają się egzekucji. Jeśli np. Nigeria zdecyduje się sprzedawać więcej ropy i w ten sposób obniży jej cenę na światowych rynkach, Arabia Saudyjska nie może pozwać tego kraju do sądu i zmusić go do przestrzegania ustalonych limitów.
Ponieważ oligopoliści nie mogą podpisać umowy, za złamanie której można byłoby dochodzić roszczeń, aby skutecznie działać jak monopolista, muszą nieustannie kontrolować się nawzajem i sprawdzać wielkość produkcji oraz ceny rynkowe każdego z uczestników zmowy.
Model złamanej krzywej popytu (ang. ) ilustruje jeden z możliwych sposobów wywierania presji, jakie przedsiębiorstwa mogą wobec siebie zastosować. Dzięki niemu oligopoliści mogą naśladować posunięcia konkurentów, jeśli ci obniżają ceny, i w specyficzny sposób karać tych, którzy zdecydują się na ich podnoszenie. pokazuje tę sytuację. Powiedzmy, że oligopolistyczna linia lotnicza uzgodniła z resztą kartelu, iż zapewni 10 tys. miejsc rocznie na trasie z Krakowa do Gdańska za cenę 500 zł. Porozumienie to sprawia, że krzywa popytu na usługi oferowane przez to konkretne przedsiębiorstwo łamie się właśnie w tym punkcie. Powodem, dla którego firma ma do czynienia ze złamaną krzywą popytu (czyli używając języka ekonomicznego, że popyt powyżej punktu złamania staje się bardzo elastyczny, zaś poniżej tego punktu niemal sztywny), jest reakcja rywali na ewentualne zmiany cen wprowadzane przez tę firmę. Jeśli analizowane przedsiębiorstwo zdecyduje się produkować więcej i obniżyć cenę, pozostali członkowie kartelu natychmiast postąpią podobnie i również obniżą ceny, a zatem niższa cena spowoduje bardzo niewielki wzrost wielkości sprzedaży (krzywa popytu ma bardzo niską elastyczność).
Jeśli analizowane przedsiębiorstwo zdecyduje się na obniżkę cen do 300 zł za bilet (a zatem aż o 40%), jego sprzedaż wzrośnie do 11 tys. biletów rocznie (jedynie o 10%). Jeśli jednak ta sama linia lotnicza będzie chciała podnieść ceny do 550 zł za bilet, czyli o 10%, pozostali oligopoliści nie będą naśladować tego ruchu, co doprowadzi do spadku popytu na usługi oferowane przez analizowaną firmę aż o 50% (popyt na bilety będzie się kształtował na poziomie 5 tys. rocznie). Tak więc jeśli oligopoliści zawsze naśladują obniżki cen dokonywane przez współuczestników zmowy, ale nie podnoszą cen w ślad za takim posunięciem jednego z uczestników kartelu, żaden z nich nie będzie miał silnej motywacji do zmiany cen, ponieważ potencjalne korzyści z takiego ruchu są minimalne, o ile w ogóle się pojawiają. Ta strategia może działać jak cicha forma współpracy, dzięki której kartelowi udaje się z powodzeniem ograniczać produkcję, zwiększać ceny i pomnażać zyski monopolowe, nawet jeśli tworzące go podmioty nie zawrą umowy, której złamanie prowadziłoby do odpowiedzialności prawnej.
Wiele rzeczywistych oligopoli, podlegających presji ze strony otoczenia gospodarczego i prawnego, naciskom polityczny, a nawet wskutek rozbuchanego ego swoich menedżerów, przechodzi przez epizody współpracy i rywalizacji. Gdyby oligopoliści byli w stanie utrzymywać zmowy dotyczące cen i wielkości produkcji w długim okresie, osiągaliby zyski porównywalne z tymi, które są charakterystyczne dla monopolistów. Jednak każde przedsiębiorstwo działające w ramach oligopolu ma silną motywację, by produkować więcej, niż wynikałoby to z rzeczywistej bądź potencjalnej zmowy, i powiększać udział w rynku. Kiedy firmy zaczynają zachowywać się właśnie w ten sposób, łączna produkcja całej gałęzi, poziom cen rynkowych i zyski przedsiębiorstw są bardzo zbliżone do tych, które występują na konkurencyjnych rynkach.
### Wybory społeczne związane z istnieniem konkurencji niedoskonałej
Konkurencja monopolistyczna jest prawdopodobnie najczęściej występującą strukturą rynku w najbardziej rozwiniętych gospodarkach świata (zarówno w USA, jak i w Polsce). Zapewnia silne bodźce do innowacji, ponieważ przedsiębiorstwa dążą do osiągania zysków w krótkim okresie, jednocześnie zdają sobie sprawę, że w długim okresie – dzięki bardzo niskim barierom ograniczającym możliwość rozpoczęcia produkcji przez nowe w gałęzi podmioty – zyski ekonomiczne spadną do zera. Jednak przedsiębiorstwa działające w ramach konkurencji monopolistycznej nie produkują wolumenu, który pozwala obniżyć koszt przeciętny do najniższego możliwego poziomu (nie osiągają optimum technologicznego). Ponadto nieustanne próby różnicowania produktów i zdobycia w ten sposób uwagi konsumentów mogą prowadzić do nadmiernych, ze społecznego punktu widzenia, wydatków na reklamę i marketing.
Oligopol jest prawdopodobnie drugą, biorąc pod uwagę częstotliwość występowania, strukturą rynku w krajach rozwiniętych. Gdy oligopole powstają w konsekwencji opatentowanych innowacji lub istnienia szerokiego zakresu korzyści skali, ich funkcjonowanie może przekładać się na korzyści dla konsumentów. Istnienie dość wysokich kosztowych barier wejścia do zoligopolizowanych gałęzi umożliwia działającym w nich podmiotom osiąganie trwałych zysków ekonomicznych nawet w długim okresie. Oligopoliści zwykle nie dostarczają na rynek rozmiarów produkcji, które umożliwią im osiągnięcie minimum długookresowej krzywej kosztów przeciętnych. Gdy walka konkurencyjna w gałęzi oligopolistycznej ma ograniczony charakter, na przedsiębiorstwa funkcjonujące w ramach tej struktury rynkowej nie działają silne bodźce zmuszające je do dostarczania na rynek innowacyjnych produktów i wysokiej jakości usług.
Podstawowym zadaniem państwa w odniesieniu do branż, w których istnieją warunki określane jako konkurencja niedoskonała, jest tworzenie takich bodźców i zachęt prowadzących do korzystnego – ze społecznego punktu widzenia – sposobu postępowania przedsiębiorstw (np. promowanie innowacji) i ograniczą do minimum strategie nakierowane na maksymalizowanie zysków, bez istotnych korzyści dla konsumentów (np. zmowy i kartele). W rozdziale poświęconym zaangażowaniu państwa w gospodarkę omówione są reguły, które rządzą politykami publicznymi w zakresie promowania konkurencji.
### Kluczowe pojęcia i podsumowanie
Oligopol to struktura rynku, w ramach której kilka przedsiębiorstw dostarcza większość lub całość produkcji w danej gałęzi. Oligopoliści osiągają największe zyski, jeśli potrafią zjednoczyć się w kartel i działać jak monopolista, ograniczając produkcję i podnosząc cenę. Ponieważ każdy członek oligopolu może zwiększyć swoje zyski, łamiąc takie porozumienie, zmowy zazwyczaj przestają obowiązywać w średnim i długim okresie, zwłaszcza że mają nielegalny charakter i ich przestrzeganie nie może być egzekwowane na drodze prawnej.
Dylemat więźnia jest przykładem zastosowania teorii gier do analizy postępowania firm działających w ramach oligopolu. Pokazuje on, dlaczego w pewnych sytuacjach wszystkie strony mogą bardziej skorzystać na współpracy niż na kierowaniu się własnym wąsko pojmowanym interesem. Wyzwaniem dla stron pozostaje jednak znalezienie sposobów egzekwowania i zachęcania do zawarcia ewentualnego porozumienia.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Problemy
|
# Wprowadzenie do rynku czynników produkcji
## Wprowadzenie do rozdziału
Prawa popytu i podaży nie dotyczą tylko rynków dóbr i usług. Odnoszą się do każdego rynku, na którym coś jest sprzedawane i kupowane, a więc również do rynków czynników produkcji, czyli pracy i kapitału. Rynki pracy to rynki pracowników lub miejsc pracy, a bardziej precyzyjnie – usług pracy. Rynki kapitałowe (usług finansowych) to rynki oszczędności lub pożyczek.
Gdy myślimy o krzywych popytu i podaży na rynkach dóbr i usług, łatwo wyobrazić sobie, kto zgłasza popyt i kto zapewnia podaż: przedsiębiorstwa wytwarzają i sprzedają swoje produkty, a gospodarstwa domowe je kupują. Kim są nabywcy i sprzedawcy na rynkach pracy i usług finansowych? Na rynkach pracy stroną podażową są osoby poszukujące pracy, czyli oferujące swe usługi pracy, podczas gdy przedsiębiorstwa i inni pracodawcy zatrudniający zgłaszają na nią popyt. Na rynkach finansowych z kolei każdy podmiot, który oszczędza, tworzy podaż kapitału niezbędnego do realizacji procesów produkcyjnych, a każdy, kto pożycza ten kapitał od innych (osoba fizyczna, przedsiębiorstwo lub rząd), tworzy na niego popyt.
Należysz do grona studentów, więc najprawdopodobniej albo już jesteś częścią rynku pracy (zapewne tworząc podaż, jakkolwiek możesz też kreować popyt, jeśli posiadasz własną firmę), albo wejdziesz na ten rynek w nieodległej przyszłości. Niniejszy rozdział pozwoli ci dostrzec, że rynki pracy i rynki finansowe możemy analizować za pomocą tych samych narzędzi, których używamy do analizy popytu i podaży na rynkach dóbr i usług konsumpcyjnych. |
# Wprowadzenie do rynku czynników produkcji
## Podaż i popyt na rynku pracy
Na rynku pracy kształt krzywych popytu i podaży jest analogiczny do tego, jaki występuje na standardowym rynku dóbr i usług. Również prawo popytu działa w ten sam sposób: wyższa płaca (wynagrodzenie), czyli wyższa cena pracy, prowadzi do zmniejszenia zapotrzebowania na pracowników zgłaszanego przez pracodawców, podczas gdy niższa płaca spowoduje wzrost tego zapotrzebowania. Zasady działania prawa podaży również są niezmienne: wyższa cena (wynagrodzenie) prowadzi do wzrostu ilości pracy oferowanej na rynku; niższa cena prowadzi do spadku liczby chętnych do podjęcia zatrudnienia (lub oferowanych przez nich godzin pracy).
### Równowaga na rynku pracy
W 2015 r. na terenie aglomeracji Minneapolis zatrudnionych było ok. 35 tys. dyplomowanych pielęgniarek (według BLS). Pracowały one dla różnych pracodawców: szpitali, gabinetów lekarskich, szkół, przychodni i domów opieki. pokazuje, jak popyt i podaż wyznaczają równowagę na tym konkretnym rynku pracy. Dane zawarte w przedstawiają wielkość oferty i zapotrzebowania na pracę pielęgniarek przy różnych poziomach wynagrodzenia (płacy).
Oś pozioma na wykresie prezentuje liczbę pielęgniarek. W tym przykładzie ilość pracy mierzymy liczbą pracowników, ale innym powszechnym sposobem jest pomiar wykorzystujący liczbę przepracowanych godzin. Oś pionowa pokazuje cenę, którą pracodawcy muszą zapłacić za pracę pielęgniarek. W realnym świecie ta cena byłaby równa płacy brutto, czyli wynagrodzeniu wpływającemu na konta pielęgniarek wraz z narzutami (podatki i składki np. na ubezpieczenie zdrowotne lub emerytalne) na płace. W Polsce pracodawcy dokładają 20,48% wynagrodzenia brutto dla każdego pracownika zatrudnionego na etacie. Dodatkowo od wynagrodzenia brutto pracownika odprowadzane są obowiązkowe składki w wysokości blisko 23%. Do tego należy jeszcze doliczyć podatek od dochodów osobistych, którego wymiar jest uzależniony od wynagrodzenia (płacy zasadniczej i wszystkich dodatków, np. premii, kwoty związanej z wysługą lat itd.). W tym przykładzie mierzymy cenę pracy wynagrodzeniem w ujęciu rocznym, chociaż w innych przypadkach możemy mierzyć ją płacą miesięczną lub tygodniową, a nawet stawką za godzinę. Wraz ze wzrostem wynagrodzenia pielęgniarek zapotrzebowanie na ich pracę spada. Niektóre szpitale i domy opieki mogą zmniejszyć liczbę nowo zatrudnianych pielęgniarek lub zwolnić te, które już pracują, gdyż nie będą skłonne płacić im wyższych wynagrodzeń. Pracodawcy, skonfrontowani z wyższymi płacami pielęgniarek, mogą również próbować zmniejszyć koszty i zakres obowiązków, inwestując w sprzęt zastępujący pielęgniarki, taki jak skomputeryzowane systemy diagnostyczne do monitorowania pacjentów, lub angażując pracowników o niższych kwalifikacjach, których płace będą niższe.
Wraz ze wzrostem wynagrodzenia pielęgniarek wzrośnie liczba chętnych do podjęcia tej pracy. Jeśli ich płace w aglomeracji Minneapolis są wyższe niż w innych miastach, coraz więcej osób posiadających stosowne uprawnienia przeniesie się do tej metropolii, aby znaleźć w niej zatrudnienie. Więcej osób będzie też skłonnych do zdobycia wykształcenia umożliwiającego tę pracę, a dyplomowane pielęgniarki będą wydłużać czas pracy lub wręcz podejmować zatrudnienie na drugim etacie. Innymi słowy, w okolicy będzie więcej pielęgniarek szukających zajęcia.
W stanie równowagi (ang. ) zapotrzebowanie i ilość oferowana są sobie równe. Tak więc każdy pracodawca, który chce zatrudnić pielęgniarkę za płacę równowagi, może znaleźć osobę gotową do podjęcia pracy, a każda pielęgniarka, która chce pracować za takie wynagrodzenie, może znaleźć pracę. Na krzywa podaży (S) i krzywa popytu (D) przecinają się w punkcie równowagi (E). Liczba zatrudnionych pielęgniarek, która równoważy rynek pracy w tym mieście, wynosi 34 tys., a płaca równowagi kształtuje się na poziomie 70 tys. dol. rocznie. Ten przykład oczywiście stanowi uproszczenie rzeczywistości (podobnie jak każdy model ekonomiczny), koncentrując analizę na statystycznie uśrednionej pielęgniarce. W rzeczywistości rynek pracy pielęgniarek obejmuje wiele mniejszych rynków (segmentów), do których dostęp uzależniony jest np. od posiadania specjalistycznych kwalifikacji (położne) i doświadczenia. Jednak podobnie rzecz się ma z rynkami dóbr konsumpcyjnych. Rynek paliw, na którym wyznaczamy cenę równowagi, też składa się z segmentów obejmujących etyliny w wersji regularnej i premium, jak również olej napędowy lub gaz. Jednak omawianie średniej ceny benzyny, tak jak i średniej pensji pielęgniarek, może być nadal przydatne, ponieważ odzwierciedla typowe procesy zachodzące w większości segmentów składających się na ten konkretny rynek pracy. Trudno oczekiwać, aby płace pielęgniarek nie wzrosły w sytuacji, w której systematycznie zwiększa się wynagrodzenie położnych.
Gdy cena pracy odchyli się od poziomu równowagi, mechanizm rynkowy będzie działał w taki sposób, by relatywnie szybko ów stan przywrócić. Na przykład gdyby cena pracy pielęgniarek w Minneapolis kształtowała się powyżej poziomu równowagi i wynosiła 75 tys. dol. rocznie, aż 38 tys. osób chciałoby podjąć tę pracę, ale pracodawcy gotowi byliby zatrudnić tylko 33 tys. pielęgniarek. Przy płacy powyżej poziomu równowagi powstaje nadwyżka podaży. W tej sytuacji, przy wielu kandydatach na każde miejsce pracy, pracodawcy będą mieli możliwość oferowania niższych płac. Wynagrodzenia pielęgniarek będą spadać, aż osiągną poziom równowagi.
Z drugiej strony, jeśli wynagrodzenia będą niższe od poziomu równoważącego rynek, powiedzmy w wysokości 60 tys. dol. rocznie, powstanie nadwyżka popytu na pracę. Relatywnie niskie płace będą skłaniały pracodawców z Minneapolis do zwiększania zatrudnienia, ale popyt na 40 tys. pracowników napotka podaż w wysokości jedynie 27 tys. osób. Brak chętnych do podjęcia pracy będzie skłaniał pracodawców do stopniowego podnoszenia wynagrodzenia, aby eliminować wakaty i zapobiec zwalnianiu się pracowników już zatrudnionych. Z drugiej strony rosnące wynagrodzenie będzie przyciągać do tego miasta pielęgniarki i skłaniać młodych ludzi do kształcenia się w tym kierunku. Dzięki tym procesom cena i zatrudnienie na rynku pracy ponownie będą zmierzać w kierunku równowagi.
### Przesunięcia krzywej popytu na pracę
Krzywa popytu na pracę pokazuje ilość pracy (liczbę pracowników lub godzin ich pracy), na jaką pracodawcy zgłaszają zapotrzebowanie przy każdym poziomie wynagrodzenia lub każdej stawce godzinowej, przy założeniu ceteris paribus. Zmiana płacy spowoduje zmianę ilości pracy, na którą jest zapotrzebowanie. Jeśli stawka wynagrodzenia wzrośnie, pracodawcy będą chcieli zatrudniać mniej pracowników. Ilość pracy, na którą jest zapotrzebowanie, zmniejszy się i nastąpi ruch w górę wzdłuż krzywej popytu. Jeśli płace spadają, pracodawcy są bardziej skłonni do zatrudniania większej liczby pracowników. Ilość pracy, na którą jest zapotrzebowanie, wzrośnie, co spowoduje ruch w dół wzdłuż krzywej popytu.
Przesunięcia krzywej popytu na pracę mogą nastąpić z wielu różnych powodów. Jednym z nich jest to, że popyt na pracę zależy od popytu na wyprodukowane dzięki niej dobra lub usługi. Na przykład im więcej nowych aut chcą kupić konsumenci, tym większą liczbę pracowników będą chcieli zatrudnić producenci samochodów. Dlatego właśnie ekonomiści nazywają popyt na pracę i inne czynniki produkcji (kapitał) popytem pochodnym. Oto kilka przykładów pochodnego popytu na pracę:
1.
Popyt na szefów kuchni jest uzależniony od popytu na jedzenie w restauracjach.
2.
Popyt na farmaceutów jest uzależniony od popytu na leki.
3.
Popyt na adwokatów jest uzależniony od popytu na usługi prawne.
Wraz ze wzrostem popytu na towary i usługi popyt na pracę wzrośnie, czyli przesunie się w prawo, aby sprostać potrzebom produkcyjnym pracodawców. Wraz ze spadkiem popytu na towary i usługi popyt na pracę zmniejszy się, czyli przesunie się w lewo. pokazuje, że oprócz konsekwencji pochodnego charakteru popytu na pracę może on również wzrosnąć lub spaść (przesunąć się) w odpowiedzi na kilka innych czynników.
### Przesunięcia krzywej podaży pracy
Podaż pracy jest krzywą nachyloną dodatnio, która w związku z tym spełnia warunki prawa podaży albo odpowiada działaniu prawa podaży: im wyższa cena, tym większa ilość pracy oferowana na rynku, a im cena niższa, tym ta ilość jest mniejsza. Krzywa podaży ceteris paribus ilustruje wybór typu coś za coś między zaangażowaniem w pracę a wykorzystaniem czasu wolnego przy każdym poziomie wynagrodzeń. Im wyższa płaca, tym więcej osób jest skłonnych pracować i rezygnować z wypoczynku. zawiera listę niektórych czynników wpływających na wzrost lub spadek podaży pracy.
Zmiana wynagrodzenia spowoduje ruch wzdłuż krzywych popytu na pracę lub podaży pracy, ale nie przesunie samych krzywych. Jednak inne wydarzenia, takie jak te, które zostały opisane w dwóch tabelach powyżej, spowodują przesunięcie albo popytu na pracę, albo jej podaży, a tym samym zmienią stan równowagi na rynku.
### Technologia i zróżnicowanie płac: czteroetapowy proces
Różne trendy obserwowane w gospodarkach rynkowych prowadzą do zmian poziomu wynagrodzeń i wielkości zatrudnienia. Zastanów się, w jaki sposób nowe technologie informatyczne, takie jak sieci komputerowe i telekomunikacyjne, wpłynęły na sytuację pracowników wysoko wykwalifikowanych, a jak na sytuację tych, którzy nie posiadają specjalistycznego wykształcenia i umiejętności? Z punktu widzenia pracodawców zgłaszających zapotrzebowanie na siłę roboczą nowe technologie często zastępują pracowników o niskich kwalifikacjach, takich jak urzędnicy zajmujący się aktami, którzy kiedyś przeczesywali szafki pełne papierowych dokumentów potwierdzających zawarcie transakcji i podpisanie umów. Jednak te same nowe technologie ułatwiają pracę wysoko wykwalifikowanych pracowników, takich jak menedżerowie, którzy dzięki komputerom i sieciom teleinformatycznym są w stanie dotrzeć do większej ilości informacji i lepiej nadzorować zarówno pracowników, jak i procesy produkcyjne w różnych częściach kraju i świata. Jak nowe technologie wpłyną na płace pracowników o wysokich i niskich kwalifikacjach? W przypadku tego pytania czteroetapowy proces analizy wpływu zmian podaży lub popytu na rynek (wprowadzony w ) działa w następujący sposób:
Krok 1. Jak wyglądały rynki pracowników o wysokich i niskich kwalifikacjach przed pojawieniem się nowych technologii? Na dwóch panelach S0 to pierwotna krzywa popytu na pracę. Na każdym panelu pierwotny punkt równowagi E0 występuje przy płacy W0 i ilości Q0.
Krok 2. Czy nowa technologia wpływa na podaż pracy oferowaną przez gospodarstwa domowe, czy na popyt na pracę ze strony przedsiębiorstw? Opisana tutaj zmiana technologii wpływa na popyt na pracę zgłaszany przez przedsiębiorstwa.
Krok 3. Czy nowa technologia zwiększy, czy zmniejszy popyt na pracę? Na podstawie wcześniejszego opisu możemy założyć, że gdy pojawią się techniczne możliwości zastąpienia pracowników o niskich kwalifikacjach, popyt na taką pracę przesunie się w lewo, z D0 do D1. Z kolei obniżenie cen zaawansowanych technologicznie urządzeń zwiększy atrakcyjność pracowników wykorzystujących je w swojej pracy, w związku z czym popyt na wysoko wykwalifikowaną siłę roboczą przesunie się w prawo, z D0 do D1.
Krok 4. Nowa równowaga na rynku pracowników o niskich kwalifikacjach ustali się w punkcie E1 z płacą W1 i ilością Q1, czyli dla niższych poziomów zarówno wynagrodzenia, jak i zatrudnienia w stosunku do pierwotnego punktu równowagi E0. Nowa równowaga na rynku pracowników o wysokich kwalifikacjach (E1) będzie natomiast wskazywać na wyższy poziom płacy (W1) i wyższą wielkość zatrudnienia (Q1) w porównaniu z pierwotnym punktem równowagi (E0).
Zatem model popytu i podaży przewiduje, że nowe technologie komputerowe i telekomunikacyjne wpłyną na wzrost płac pracowników o wysokich kwalifikacjach, ale obniżą wynagrodzenia pracowników o niskich kwalifikacjach. Od lat 70. ubiegłego stulecia do roku 2005 w gospodarce amerykańskiej można było obserwować pogłębianie się luki płacowej między pracownikami o wysokich a pracownikami o niskich kwalifikacjach. Na przykład według National Center for Education Statistics w 1980 r. absolwent college'u zarabiał ok. 30% więcej niż absolwent szkoły średniej z porównywalnym doświadczeniem zawodowym. Ale w 2014 r. absolwent college'u zarabiał już ok. 66% więcej niż absolwent szkoły średniej, który przepracował tyle samo lat. Zdaniem wielu ekonomistów trend silnego różnicowania wysokość płac w gospodarce USA wynika w przeważającej mierze z postępu technologicznego. Podobne tendencje obserwowane są również w gospodarce Polski.
### Ograniczenia cenowe na rynku pracy – płaca minimalna
W przeciwieństwie do rynków dóbr i usług narzędzie takie jak ceny maksymalne na rynkach pracy jest wykorzystywane niezwykle rzadko, ponieważ przepisy uniemożliwiające ludziom powiększanie ich dochodów, nie są popularne politycznie. Da się jednak wskazać kilka wyjątków od tej zasady. Po pierwsze zatem – rady nadzorcze lub akcjonariusze proponują ograniczenia dochodów kadry kierowniczej najwyższego szczebla. Po drugie zaś, stosowane są ograniczenia łącznej wysokości zarobków w klubach sportowych uniemożliwiające podnoszenie wynagrodzenia gwiazd piłki nożnej, koszykówki lub hokeja w nieskończoność (tzw. salary cap w USA i mechanizm finansowego fair play wprowadzony w klubach piłkarskich przez UEFA). Zupełnie inaczej wygląda sytuacja z cenami minimalnymi, które są narzędziem wykorzystywanym w celu podniesienia wynagrodzeń pracowników o niskich kwalifikacjach. Rządy większości krajów rozwiniętych (ale nie wszystkich, płacy minimalnej nie ma np. w Szwecji, w Niemczech zaś została ona wprowadzona dopiero w drugiej dekadzie XXI w.) ustalają płacę minimalną (ang. ), czyli cenę minimalną pracy, która uniemożliwia obniżenie wynagrodzenia pracowników (zarówno definiowanego jako płaca miesięczna, jak i za godzinę pracy) poniżej wskazanego w prawie poziomu. W Polsce w ciągu ostatnich pięciu lat, tj. między rokiem 2018 a 2022, minimalna płaca za standardowy miesięczny okres pracy wzrosła z 2100 do 3010 zł brutto. Jednocześnie w tym samym okresie minimalne wynagrodzenie za godzinę pracy zostało zwiększone z kwoty 13,70 do 19,70 zł brutto.
W Stanach Zjednoczonych poza minimalną płacą federalną funkcjonuje jeszcze jeden poziom ceny minimalnej na rynku pracy, tzw. płaca zapewniająca utrzymanie (ang. ). Zwolennicy ustawy o płacy zapewniającej utrzymanie twierdzą, że płaca minimalna jest zbyt niska, aby zapewnić rozsądny poziom życia. Opierają ten wniosek na wyliczeniu, zgodnie z którymi jeśli ktoś pracuje 40 godzin tygodniowo przy płacy minimalnej 7,25 dol. za godzinę przez 50 tygodni w roku, to jego roczny dochód wynosi 14 500 dol., czyli mniej niż oficjalnie przyjęta przez rząd USA granica ubóstwa dla czteroosobowego gospodarstwa domowego. Federalna granica ubóstwa dla takiego gospodarstwa domowego wynosiła w 2015 r. 24 250 dol. Jeśli jedna z osób dorosłych nie pracuje, żeby zapewnić opiekę małoletnim dzieciom, dochody tej drugiej są znacznie poniżej granicy ubóstwa. Odkąd Baltimore uchwaliło w 1994 r. pierwszą ustawę o płacy zapewniającej utrzymanie, podobne rozwiązania przyjęło kilkadziesiąt miast. Rozporządzenia dotyczące płacy zapewniającej utrzymanie nie mają zastosowania do wszystkich pracodawców, ale określiły, że wszyscy pracownicy zatrudnieni w urzędach i przedsiębiorstwach komunalnych, jak również pracownicy przedsiębiorstw zatrudnianych przez miasto, otrzymują płacę nie mniejszą niż ustalona przez władze lokalne, która zwykle jest o kilka dolarów za godzinę wyższa niż płaca minimalna w USA.
przedstawia sytuację kraju biorącego pod uwagę wprowadzenie płacy minimalnej. Wynagrodzenie oznaczone jest na osi pionowej, bo płaca jest ceną na rynku pracy. Przed uchwaleniem ustawy o płacy minimalnej płaca równowagi wynosiła 10 zł za godzinę, a zatrudnienie kształtowało się na poziomie 1200 pracowników. Jednak silny lobbing obywateli przekonuje parlamentarzystów do uchwalenia ustawy o płacy minimalnej, wymagającej od pracodawców płacenia nie mniej niż 12 zł za godzinę pracy. W odpowiedzi na wyższe zarobki 1600 pracowników zaczyna aktywnie poszukiwać pracy. Przy wyższej płacy pracodawcy są skłonni zatrudnić tylko 700 pracowników. Dla tego poziomu wynagrodzenia liczba chętnych do podjęcia pracy przewyższa zapotrzebowanie, a więc istnieje nadwyżka podaży pracy. Standard życia pracowników, którzy nadal mają pracę za wyższą płacę, uległ poprawie. Oni skorzystali na tej decyzji. Dla tych, którzy chcieli pracować przy dotychczasowej stawce, ale stracili posadę wraz z podwyżką, warunki życia się się pogorszyły. Oni ponoszą koszt decyzji o wprowadzeniu płacy minimalnej. pokazuje różnice w podaży i popycie na pracę przy różnych poziomach wynagrodzenia (płacy).
Płaca minimalna w USA jest ustalona albo bardzo blisko płacy równowagi, albo nawet nieco poniżej. Około 1% amerykańskich pracowników faktycznie otrzymuje płacę minimalną. Innymi słowy, płace w zdecydowanej większości przypadków w USA są ustalane na rynku pracy, a nie w wyniku przyjęcia rządowego dolnego progu cenowego. Zupełnie inaczej sytuacja wygląda w Polsce. W 2022 r. minimalne wynagrodzenie pobierać będzie ok. 2,2 mln pracowników. Zważywszy, że zatrudnienie kształtuje się na poziomie ok. 16,5 mln osób, minimalne wynagrodzenie uzyskuje ok. 13% pracujących.
Ekonomiści niejednokrotnie próbowali oszacować, o ile płaca minimalna zmniejsza zapotrzebowanie na pracowników o niskich kwalifikacjach. Najczęściej takie badania pokazują, że podwyżka płacy minimalnej o 10% zmniejszyłaby w USA zatrudnienie pracowników niewykwalifikowanych o 1–2%, co wydaje się stosunkowo niewielką redukcją. Niektóre badania nie wykazały żadnego wpływu wyższej płacy minimalnej na zatrudnienie w określonych godzinach i miejscach, chociaż analizy te są kontrowersyjne.
Załóżmy, że płaca minimalna leży nieco poniżej poziomu równowagi. Płace mogą wahać się zgodnie z siłami rynkowymi powyżej tej granicy cenowej, ale nie będą mogły zejść poniżej dolnego pułapu. W tej sytuacji minimalna płaca nie jest wiążąca – to znaczy, że nie ma ona wpływu na sytuację na rynku. Jeśli płaca minimalna nieznacznie wzrośnie, to i tak nie będzie miała wpływu na wielkość zatrudnienia w gospodarce, o ile pozostanie poniżej płacy równowagi. A jeśli rząd podniesie płacę minimalną na tyle, aby wzrosła nieco powyżej płacy równowagi, stała się wiążąca i zaczęła oddziaływać, wystąpi tylko niewielka nadwyżka podaży pracy.
Te spostrzeżenia pomagają wyjaśnić, dlaczego amerykańskie przepisy dotyczące płacy minimalnej historycznie miały niewielki wpływ na zatrudnienie. Działo się tak, ponieważ płaca minimalna była zwykle ustalana w pobliżu płacy równowagi dla pracowników o niskich kwalifikacjach, a czasem nawet poniżej tego poziomu, nie miała ona więc dużego wpływu na tworzenie nadwyżki podaży pracy. Gdyby jednak płaca minimalna wzrosła znacząco – powiedzmy, gdyby się podwoiła, by zrównać się z płacą zapewniającą utrzymanie, co rozważały niektóre miasta w USA – wówczas jej wpływ na zmniejszenie zapotrzebowania na pracę byłby znacznie większy. W Polsce z kolei wysokość płacy minimalnej w dalszym ciągu jest znacznie niższa niż produktywność większości pracowników, to znaczy, że są oni w stanie wytworzyć dobra i usługi o wartości znacznie przekraczającej poziom ich wynagrodzenia lub koszt ich pracy. Zapewne właśnie dlatego w naszym kraju wzrost płacy minimalnej nie przekłada się na wzrost stopy bezrobocia, która jest miarą nadwyżki podaży na rynku pracy.
Poniższa bardziej szczegółowo opisuje niektóre argumenty za i przeciw zmianom płacy minimalnej.
### Concepts and Summary
Na rynku pracy gospodarstwa domowe tworzą stronę podażową, a przedsiębiorstwa popytową. Na rynku kapitału finansowego gospodarstwa domowe i przedsiębiorstwa mogą znajdować się po obu stronach rynku: są dostawcami kapitału finansowego, gdy oszczędzają lub dokonują inwestycji finansowych, oraz zgłaszają zapotrzebowanie na kapitał finansowy, gdy zaciągają pożyczki lub otrzymują kapitał za pośrednictwem rynków finansowych lub sektora bankowego.
W analizie popytu i podaży na rynkach pracy możemy mierzyć cenę na podstawie otrzymywanego rocznego wynagrodzenia lub stawki godzinowej. Ilość pracy możemy mierzyć na różne sposoby, np. liczbą zatrudnionych pracowników lub przepracowanych godzin.
Czynniki, które mogą przesunąć krzywą popytu na pracę, obejmują: zmianę zapotrzebowania na towar wytwarzany dzięki zatrudnieniu, zmianę procesu produkcyjnego (zużywanie mniejszej lub większej ilości tego czynnika produkcji) oraz zmianę polityki państwa wpływającą na ilość siły roboczej, jaką przedsiębiorstwa chcą zatrudnić przy danym poziomie wynagrodzeń. Popyt może również wzrosnąć lub spaść (przesunąć się) w odpowiedzi na zmiany w poziomie wykształcenia i doświadczenia pracowników, technologię, liczbę przedsiębiorstw oraz dostępność i ceny innych czynników produkcji, którymi można zastąpić pracę.
Główne czynniki mogące przesunąć krzywą podaży pracy to: atrakcyjność pracy dla pracowników (w porównaniu z czasem wolnym), polityka państwa, która ogranicza lub zwiększa liczbę pracowników odpowiednio przeszkolonych do wykonywania konkretnej pracy, liczba pracowników w gospodarce oraz wymagane wykształcenie.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
### References
American Community Survey. 2012. "School Enrollment and Work Status: 2011." Accessed April 13, 2015. http://www.census.gov/prod/2013pubs/acsbr11-14.pdf.
National Center for Educational Statistics. “Digest of Education Statistics.” (2008 and 2010). Accessed December 11, 2013. nces.ed.gov. |
# Wprowadzenie do rynku czynników produkcji
## Rynek pracy
W poprzednim podrozdziale zdefiniowaliśmy rynek pracy jako jeden z rynków czynników produkcji (nakładów). Oczywiście nie istnieje jeden rynek pracy. Ekonomiści posługują się tym określeniem, żeby opisać rynki różniące się m.in. kwalifikacjami pracowników i rodzajem wykonywanej przez nich pracy (istnieje rynek pracowników sektora IT, rynek prawników i rynek robotników niewykwalifikowanych), zasięgiem (rynki lokalne, na których zatrudnienie uzyskują pracownicy handlu detalicznego, i globalny rynek oficerów i marynarzy floty handlowej) oraz stopniem regulacji wprowadzonej przez państwo (ściśle regulowany rynek lekarzy, pilotów samolotów i nauczycieli). Trzeba też wspomnieć o pozostającym praktycznie poza jakimikolwiek regulacjami rynkiem pracowników rolnych. Chociaż każdy rynek pracy jest inny, wszystkie działają w podobny sposób. Na przykład gdy płace rosną na jednym, zwykle w górę idą również na innych. Gdy ekonomiści mówią o rynku pracy, wskazują właśnie na te podobieństwa.
Równowagę na rynku pracy określiliśmy jako konkretny poziom wynagrodzenia (płacy) oraz wielkość zatrudnienia. Wskazaliśmy na popyt i podaż na rynku pracy jako parametry wyznaczające poziom równowagi. Od czego zależy jednak wysokość wynagrodzenia, którą pracodawcy (przedsiębiorstwa) są skłonni zapłacić pracownikom? Dlaczego wraz ze wzrostem płac zapotrzebowanie na siłę roboczą maleje? Z drugiej zaś strony – jakie czynniki determinują dochód gospodarstw domowych? W krajach o gospodarce rynkowej, takich jak Stany Zjednoczone i Polska, dochód pochodzi ze sprzedaży lub wynajmu czynników produkcji (pracy, kapitału i ziemi). Mówiąc dokładniej, dochód jest funkcją dwóch czynników: tego, jaką ilość konkretnego czynnika produkcji posiadamy, oraz wartości, jaką społeczeństwo mu przypisuje (w społeczeństwie, w którym nikt już nie wykorzystuje transportu konnego do przewożenia ludzi i towarów, nawet najlepsi woźnice będą mieli problemy z uzyskaniem godziwego dochodu). Dla większości z nas najważniejszym zasobem, jaki posiadamy, jest nasza praca. Tak więc większość naszych dochodów to płace, prowizje, napiwki i inne dochody z pracy. Twój dochód z pracy zależy od tego, ile godzin musisz przepracować, oraz wynagrodzenia, jakie wypłaci ci pracodawca. Jednocześnie niektórzy z nas są właścicielami nieruchomości, z których mogą korzystać samodzielnie lub wynajmować innym użytkownikom. Niektórzy ludzie mają aktywa finansowe, takie jak lokaty bankowe, akcje i obligacje, za które otrzymują odsetki, dywidendy lub inną formę dochodu.
Wysokość wynagrodzenia za czynniki produkcji (płaca za pracę, odsetki od kapitału finansowego) jest określana na poszczególnych rynkach. W dalszej części tego podrozdziału skupimy się na rynkach pracy, ale rynki innych czynników produkcji działają bardzo podobnie.
Po lekturze pierwszego podrozdziału wiesz już, że na rynku pracy, podobnie jak na każdym innym, mamy do czynienia z popytem i podażą. Teraz spróbujmy się zastanowić, dlaczego właściwie przedsiębiorstwa zgłaszają zapotrzebowanie na pracę. Dlaczego pracodawca jest gotów zapłacić ci za twoje usługi? Nie dzieje się tak dlatego, że cię lubi lub czuje się do tego moralnie lub społecznie zobowiązany, to oczywiste. Pracodawca wypłaca ci wynagrodzenie, ponieważ twoja praca ma dla niego wartość – dzięki niej przedsiębiorstwo może coś wyprodukować, a następnie sprzedać i osiągnąć z tego tytułu przychód. Ile pracodawca jest gotów ci zapłacić? To zależy od twoich umiejętności i doświadczenia, czyli tego, jaka jest wartość twojej pracy (umiejętności, doświadczenia) z punktu widzenia przedsiębiorstwa.
Jeśli przedsiębiorstwo chce maksymalizować zyski, nigdy nie zapłaci pracownikowi (w formie płac i dodatkowych świadczeń) więcej, niż wynosi wartość jego krańcowej produktywności dla tego przedsiębiorstwa. Nazywamy to pierwszą zasadą rynków pracy (ang. ).
Załóżmy, oczywiście upraszczając i pomijając inne koszty produkcji, że przeciętny pracownik może wyprodukować dwa gadżety w ciągu godziny, a przedsiębiorstwo może sprzedać każdy gadżet po 4 zł. Wówczas pracownik generuje dla przedsiębiorstwa produkt wartości 8 zł w ciągu godziny, a maksymalizujący zysk pracodawca zapłaci pracownikowi co najwyżej 8 zł za godzinę, bo tyle jest warta jego praca z punktu widzenia przedsiębiorstwa.
Przypomnij sobie definicję produktu krańcowego. Produkt krańcowy (ang. ) to dodatkowa produkcja, którą przedsiębiorstwo może wytworzyć, zwiększając liczbę pracowników o jednostkę. Ponieważ pracodawcy często zatrudniają pracowników na godziny, zdefiniujemy produkt krańcowy jako dodatkową produkcję, którą przedsiębiorstwo wytwarza, dodając do procesu produkcyjnego jeszcze jedną godzinę pracy. W tym rozdziale zakładamy, że pracownicy nie różnią się – mają takie same wykształcenie, doświadczenie i umiejętności oraz wkładają w pracę taki sam wysiłek. Zatem produkt krańcowy zależy od zasobów kapitału i technologii, jakimi pracownicy dysponują.
Maszynistka wyposażona w komputer z odpowiednim oprogramowaniem i drukarką może w ciągu godziny przepisać więcej stron niż w sytuacji, gdyby miała do dyspozycji jedynie elektryczną maszynę do pisania. Zaś na elektrycznej maszynie zdołałaby przepisać więcej stron niż na maszynie ręcznej. Doświadczony operator z koparką jest w stanie wykopać w jednostce czasu dół o bez porównania większej kubaturze niż najsilniejszy nawet robotnik machający łopatą.
Wziąwszy pod uwagę powyższe zależności, możemy zdefiniować popyt przedsiębiorstwa na pracę jako produkt krańcowy pracy (wyrażony w jednostkach fizycznych) pomnożony przez rynkową wartość tego produktu z punktu widzenia przedsiębiorstwa.
Od czego zależy wartość produktu krańcowego wytworzonego dzięki zatrudnieniu kolejnego pracownika? Jeśli przyjmiemy, że pracodawca sprzedaje wytwarzane przez siebie dobra lub usługi na rynku doskonale konkurencyjnym, to wartość produkcji uzyskanej dzięki zatrudnieniu kolejnego pracownika będzie równa rynkowej cenie produktu. Zatem:
Stosowne dane zawarte są w , która jest rozszerzoną wersją
Zauważ, że z punktu widzenia przedsiębiorstwa wartość pracy wykonywanej przez każdego kolejnego pracownika jest mniejsza od wartości pracy tych, którzy zostali zatrudnieni wcześniej.
### Popyt na pracę w warunkach doskonałej konkurencji na rynku dóbr
Podstawowe pytanie, na jakie musi odpowiedzieć sobie każde przedsiębiorstwo, brzmi następująco: ile pracy (pracowników, godzin pracy) zatrudnić?
Możemy zdefiniować doskonale konkurencyjny rynek pracy (nazywany inaczej rynkiem pracy konkurencji doskonałej lub doskonałym rynkiem pracy) (ang. ) jako taki, na którym przedsiębiorstwa mogą w nieograniczony sposób zwiększać zatrudnienie, bez konieczności podnoszenia stawki płac dla kolejnych przyjmowanych pracowników. Pomyśl o sekretarkach i asystentkach w dużym mieście. Pracodawcy, którzy potrzebują tego rodzaju pracy, mogą bez problemów zatrudnić tyle pracownic, ile potrzebują, oferując im rynkową stawkę wynagrodzenia.
Graficzne przedstawienie takiej sytuacji to pozioma krzywa podaży siły roboczej wykreślona na wysokości rynkowej stawki płac, tak jak to widać na .
Biorąc pod uwagę płacę rynkową, przedsiębiorstwa maksymalizujące zysk zwiększają zatrudnienie do momentu, w którym płaca rynkowa nie zrówna się z MVPL.
### Popyt na pracę w warunkach konkurencji niedoskonałej na rynku dóbr
Jeśli pracodawca nie sprzedaje swojej produkcji na rynku doskonale konkurencyjnym, napotyka na opadającą krzywą popytu, co oznacza, że aby zbyć dodatkowe jednostki produkcji, musi obniżyć cenę. Dzieje się tak, jeśli przedsiębiorstwo jest monopolistą, oligopolistą lub działa w warunkach konkurencji monopolistycznej. W tej sytuacji wartość krańcowego produktu pracy każdego kolejnego pracownika określona jest przez przychód krańcowy, a nie cenę. Zatem popyt na pracę to iloczyn krańcowego produktu pracy i przychodu krańcowego.
Biorąc pod uwagę stały poziom płacy rynkowej, przedsiębiorstwa maksymalizujące zysk będą zwiększać zatrudnienie pracowników do momentu, w którym płaca rynkowa zrówna się z przychodem krańcowym, jak to widać na .
### Co determinuje stawkę płac na rynku?
Z poprzedniego podrozdziału dowiedzieliśmy się, że na rynkach czynników produkcji krzywe popytu i podaży mają kształt analogiczny do tych, które są obserwowane na rynkach dóbr i usług konsumpcyjnych. Krzywa popytu na pracę jest opadającą funkcją stawki płac. Popyt na pracę to suma zapotrzebowania wszystkich przedsiębiorstw na pracę. Krzywa podaży pracy jest nachyloną w górę funkcją stawki płac. Jeśli wynagrodzenia za określony rodzaj pracy wzrosną na danym rynku pracy, osoby o odpowiednich umiejętnościach mogą zmienić pracę, a wakaty przyciągną osoby z innych regionów lub branż. Rynkowa podaż pracy to horyzontalna suma podaży pracy wszystkich pracowników.
### Key Concepts and Summary
Przedsiębiorstwo potrzebuje pracy ze względu na jej wartość. Zatrudnieni pracownicy zwiększają produkcję przedsiębiorstwa, co oznacza, że ich praca jest źródłem przyrostu produktu, czyli produktu krańcowego. Wraz ze wzrostem zatrudnienia krańcowy produkt pracy maleje, zgodnie z prawem malejących przychodów krańcowych. Dla przedsiębiorstwa działającego na rynku dóbr i usług w warunkach doskonałej konkurencji wartość każdego kolejnego zatrudnionego pracownika będzie równa wartości krańcowego produktu jego pracy, którą definiujemy jako krańcowy produkt pracy pomnożony przez stałą cenę produktu. Dla przedsiębiorstwa, które nie działa na rynku doskonale konkurencyjnym, właściwym parametrem pozwalającym określić wartość pracownika dla firmy jest krańcowy przychód z pracy, który definiujemy jako iloczyn krańcowego produktu pracy i krańcowego przychodu. Firmy maksymalizujące zysk zatrudniają siłę roboczą do momentu, w którym rynkowa płaca jest równa korzyści związanej z zatrudnieniem ostatniego pracownika. Na konkurencyjnym rynku pracy płacę rynkową określamy poprzez interakcję między podażą a popytem na pracę.
### Self-Check Questions
### Review Questions
### References
AFL-CIO. “Training and Apprenticeships.” http://www.aflcio.org/Learn-About-Unions/Training-and-Apprenticeships.
Central Intelligence Agency. “The World Factbook”. https://www.cia.gov/library/publications/the-world-factbook/index.html.
Clark, John Bates. Essentials of Economic Theory: As Applied to Modern Problems of Industry and Public Policy. New York: A. M. Kelley, 1907, 501.
United Auto Workers (UAW). “About: Who We Are.” http://www.uaw.org/page/who-we-are.
United States Department of Labor: Bureau of Labor Statistics. “Economic News Release: Union Members Summary.” Last modified January 23, 2013. http://www.bls.gov/news.release/union2.nr0.htm.
United States Department of Labor, Bureau of Labor Statistics. 2015. “Economic News; Union Members Summary.” Accessed April 13, 2015. http://www.bls.gov/news.release/union2.nr0.htm. |
# Wprowadzenie do rynku czynników produkcji
## Płace i zatrudnienie na niedoskonale konkurencyjnym rynku pracy
W rozdziałach poświęconych strukturom rynku zauważyliśmy, że chociaż ekonomiści często wykorzystują model konkurencji doskonałej, to w rzeczywistym świecie istnieje bardzo niewiele przykładów rynków doskonale konkurencyjnych. A co z rynkami pracy? Ile rynków pracy jest doskonale konkurencyjnych? Prawdopodobnie jest więcej przykładów doskonale konkurencyjnych rynków pracy niż takich rynków produktów, co jednak nie oznacza, że wszystkie rynki pracy są doskonale konkurencyjne.
Kiedy osoba ubiegająca się o pracę negocjuje z pracodawcą warunki swojego zatrudnienia, często znajduje się w niekorzystnej sytuacji – potrzebuje pracy znacznie bardziej niż pracodawca tego konkretnego kandydata. John Bates Clark (1847–1938), nazywany pierwszym wielkim amerykańskim ekonomistą, napisał w 1907 r.: „Przy zawieraniu umowy o pracę pojedynczy robotnik jest zawsze w niekorzystnej sytuacji. Ma coś, co jest zmuszony sprzedać [aby przeżyć], a czego jego pracodawca nie ma obowiązku nabyć, ponieważ on [czyli pracodawca] może bez konsekwencji odrzucać konkretne kandydatury”.
Istnieją dwa źródła niedoskonałej konkurencji na rynkach pracy. Są to źródła leżące po stronie popytu (czyli znaczna siła pracodawców) oraz po stronie podaży (siła leżąca po stronie pracowników).
Konkurencyjny rynek pracy to taki, na którym istnieje wielu potencjalnych pracodawców chętnych do zatrudnienia ludzi posiadających określone umiejętności, powiedzmy sekretarek lub księgowych. Załóżmy jednak, że na rynku pracy jest tylko jeden pracodawca zainteresowany ludźmi konkretnej profesji. Ten pracodawca nie ma bezpośrednich konkurentów. Jeśli zaoferuje płace niższe niż te, które ukształtowałby się na doskonale konkurencyjnym rynku pracy, to potencjalni pracownicy nie będą mieli wielu innych opcji zatrudnienia. Jeśli będą chcieli podjąć tę konkretną pracę, muszą zaakceptować oferowaną stawkę płacy (choć oczywiście sekretarki wciąż mogą zatrudnić się w sklepie, a księgowi w magazynie). Przedsiębiorstwo wykorzystujące swoją siłę rynkową na rynku czynników produkcji nazywamy monopsonem (ang. ). Klasycznym przykładem monopsonu są miejskie zakłady komunikacyjne w średniej wielkości mieście. Jeśli kierowcy autobusów chcą pracować w swoim zawodzie, muszą zaakceptować stawkę, którą oferuje miejska spółka. To nie jedyny przykład monopsonu. Pomyśl o pielęgniarkach-instrumentariuszkach (czyli tych, które biorą udział w zabiegach chirurgicznych) w mieście mającym tylko jeden szpital. Pracodawcy, którzy mają pewną przewagę rynkową nad potencjalnymi pracownikami, nie są niczym niezwykłym. W końcu większość przedsiębiorstw zatrudnia wielu pracowników, nie uczestnicząc w grze konkurencyjnej.
Jak siła rynkowa pracodawcy wpływa na rynek pracy? W pierwszym odruchu zapewne przyszła ci do głowy myśl, że w takiej sytuacji płace będą niższe niż na konkurencyjnym rynku. Sprawdźmy to. Wykorzystamy przykład monopsonu, czyli jedynego nabywcy pewnych umiejętności, ale wyniki będą zbliżone, choć mniej ekstremalne, dla każdego przedsiębiorstwa posiadającego pewną siłę monopolową na rynku pracy.
Wróćmy do monopolu. Korzyść z bycia jedynym sprzedawcą polega na tym, że można zażądać za swoje produkty dowolnej ceny (monopolista jest w końcu „twórcą cen"). Jednak jeśli monopolista chce sprzedać więcej dóbr lub usług, musi cenę obniżyć. Monopsonista napotyka w swej działalności podobne ograniczenia. Ponieważ monopson jest jedynym pracodawcą na rynku, może zaoferować potencjalnym pracownikom dowolną płacę. Jednak musi się skonfrontować z krzywą podaży siły roboczej. Jeśli chce zatrudnić więcej pracowników, musi podnieść im wynagrodzenie. Stwarza to dylemat, który możemy zrozumieć, wprowadzając nowe pojęcie: krańcowy koszt pracy (ang. ). Krańcowy koszt pracy to dodatkowy koszt, jaki przedsiębiorstwo ponosi w związku z zatrudnieniem kolejnego pracownika. Zobaczmy, jak to wygląda na przykładzie w .
W kontekście danych zawartych w powyższej tabeli warto podkreślić kilka istotnych zależności. Po pierwsze, krańcowy koszt pracy rośnie szybciej niż stawka płacy. W rzeczywistości dla dowolnej liczby pracowników (więcej niż jednego) krańcowy koszt pracy jest wyższy niż płaca. Dzieje się tak dlatego, że zatrudnienie jeszcze jednego pracownika wymaga płacenia wyższej stawki wynagrodzenia nie tylko jemu, lecz również wszystkim dotychczas zatrudnionym. Ilustracja graficzna tej zależności jest zaprezentowana na poniższym wykresie.
Jeśli przedsiębiorstwo chce maksymalizować zyski, zatrudni liczbę pracowników wyznaczoną przez punkt Lm, w którym popyt na pracę (DL) zrówna się z wartością krańcowego produktu pracy lub krańcowym przychodem z pracy (MVPL lub MRPL), tak jak to widać na . Następnie krzywa podaży pracy wskaże wysokość wynagrodzenia, które przedsiębiorstwo będzie musiało zapłacić, aby przyciągnąć daną grupę pracowników. Wysokość wynagrodzenia w tym konkretnym przypadku kształtuje się na poziomie Wm.
Jak ta sytuacja ma się do rynku doskonale konkurencyjnego? Rynek doskonale konkurencyjny odnalazłby równowagę tam, gdzie popyt na pracę zrówna się z podażą pracy . Innymi słowy, w warunkach monopsonu pracodawcy zatrudniają mniej pracowników i płacą im niższe wynagrodzenie. Chociaż czysty monopson może być zjawiskiem relatywnie rzadkim, to wielu pracodawców dysponuje pewną siłą monopolową. Rezultaty dla pracodawców będą podobne, choć nie tak ekstremalne jak na rynkach monopsonistycznych.
### Key Concepts and Summary
Monopson na rynku pracy to jedyny pracodawca, może więc oferować dowolną płacę, zależnie od rynkowej podaży siły roboczej. Oznacza to, że jeśli monopson proponuje zbyt niską płacę, może nie znaleźć wystarczającej liczby chętnych do pracy. Aby pozyskać więcej pracowników, musi ustalić wyższą płacę, a krańcowy koszt zatrudnienia dodatkowego pracownika jest wyższy niż płaca. Aby zmaksymalizować zyski, monopson będzie zatrudniał pracowników do momentu, w którym krańcowy koszt pracy zrówna się z jego popytem na pracę. Skutkuje to niższym poziomem zatrudnienia i wynagrodzeń niż zapewniałby doskonale konkurencyjny rynek pracy.
### Critical Thinking Questions
Clune, Michael S. “The Fiscal Impacts of Immigrants: A California Case Study.” In The Immigration Debate: Studies on the Economic, Demographic, and Fiscal Effects of Immigration, edited by James P. Smith and Barry Edmonston. Washington, DC: National Academy Press, 1998, 120–182. http://www.nap.edu/openbook.php?record_id=5985&page=120.
Smith, James P. “Immigration Reform.” Rand Corporation: Rand Review. http://www.rand.org/pubs/periodicals/rand-review/issues/2012/fall/leadership/immigration-reform.html.
U.S. Department of Homeland Security: Office of Immigration Statistics. “ 2011 Yearbook of Immigration Statistics.” September 2012. http://www.dhs.gov/sites/default/files/publications/immigration-statistics/yearbook/2011/ois_yb_2011.pdf. |
# Wprowadzenie do rynku czynników produkcji
## Dyskryminacja na rynku pracy
Dyskryminacja (ang. ) polega na działaniu opartym na przekonaniu, że członkowie określonej grupy zdefiniowanej za pomocą płci, rasy, pochodzenia etnicznego, wyznawanej religii lub jakiegokolwiek innego czynnika są gorsi wyłącznie ze względu na ten czynnik. Istnieje wiele rodzajów dyskryminacji, ale w tym podrozdziale nacisk zostanie położony na dyskryminację na rynkach pracy, która pojawia się wówczas, gdy pracownicy o tym samym poziomie umiejętności – określanym przez wykształcenie, doświadczenie i wiedzę specjalistyczną – otrzymują różne wynagrodzenie lub mają różne szanse na podjęcie pracy.
Różnica między średnimi zarobkami dla różnych kobiet i mężczyzn lub ludzi o różnym pochodzeniu etnicznym sama w sobie nie dowodzi, że na rynku pracy występuje dyskryminacja. Musimy porównać te same cechy opisujące wydajność dla wszystkich zaangażowanych stron (pracowników). Dyskryminacja ze względu na płeć na rynku pracy ma miejsce wówczas, gdy pracodawcy płacą kobietom mniej niż mężczyznom, mimo że mają one porównywalny poziom wykształcenia, doświadczenie i wiedzę. Do dyskryminacji rasowej na rynku pracy dochodzi wtedy, gdy pracodawcy płacą odmiennym rasowo pracownikom mniej niż ich współpracownikom należącym do rasy będącej na danym terytorium w większości, mimo posiadania przez nich porównywalnego poziomu wykształcenia, doświadczenia i wiedzy. Aby wnieść pozew o dyskryminację np. ze względu na płeć, pracownica musi udowodnić, że pracodawca płaci jej mniej niż pracownikowi płci męskiej, który ma podobny zakres obowiązków, analogiczne wykształcenie, doświadczenie i kompetencje.
Istnieją jednak czynniki, które mogą wpływać na obniżenie średnich zarobków kobiet. Na przykład na kobiety może spadać nieproporcjonalnie duża część obowiązków domowych. Jest też bardziej prawdopodobne, że matka małych dzieci opuści rynek pracy na kilka lat lub będzie pracowała w niepełnym wymiarze godzin. W rezultacie kobiety 30–40-letnie mają przeciętnie mniejsze doświadczenie zawodowe niż mężczyźni w tym samym wieku. W Stanach Zjednoczonych bezdzietne kobiety z takim samym jak mężczyźni wykształceniem i doświadczeniem otrzymują zazwyczaj porównywalną płacę. Jednak kobiety mające rodziny i dzieci zarabiają zazwyczaj od 7% do 14% mniej niż kobiety o podobnym wykształceniu i doświadczeniu zawodowym, ale nieposiadające dzieci. (Tymczasem żonaci mężczyźni zarabiają od 10% do 15% więcej niż samotni mężczyźni z porównywalnym wykształceniem i doświadczeniem zawodowym.) Czynniki wskazane powyżej tworzą swoisty mechanizm negatywnego sprzężenia zwrotnego, który obniża przeciętne płace kobiet. Ponieważ istnieje ryzyko, że pracownica zajdzie w ciążę i po urodzeniu dziecka odejdzie z pracy, pracodawcy są mniej skłonni do zatrudniania kobiet i w związku z tym mniej im płacą. W sytuacji, w której para decyduje się na dziecko, z pracy zrezygnuje osoba o niższych zarobkach, czyli najczęściej kobieta. Taka indywidualna, racjonalna skądinąd decyzja wzmacnia trend obserwowany w skali makro.
Zapewne moglibyśmy nazwać różne wzorce obowiązków rodzinnych dyskryminacją, ale zarówno w Polsce, jak i w USA jest to przede wszystkim podział zakorzeniony w społecznych wzorcach dotyczących ról wypełnianych przez ojców i matki w wychowaniu dzieci, a nie dyskryminacja ze strony pracodawców przy podejmowaniu decyzji o zatrudnieniu i wynagrodzeniu.
### Rynki konkurencyjne i dyskryminacja
Gary Becker (1930–2014), laureat Nagrody Nobla w dziedzinie ekonomii w 1992 r., był jednym z pierwszych badaczy, którzy analizowali dyskryminację w kategoriach ekonomicznych. Becker zwrócił uwagę na to, że chociaż konkurencyjne rynki mogą pozwalać niektórym pracodawcom na dyskryminację, to jednocześnie potrafią stwarzać przedsiębiorstwom maksymalizującym zysk zachęty do niedyskryminowania. Biorąc je pod uwagę, Becker badał, dlaczego dyskryminacja się utrzymuje.
Jeśli przedsiębiorstwo działające na obszarze zamieszkiwanym przez dużą populację mniejszościową odmawia członkom tej mniejszości sprzedaży swoich produktów lub niechętnie ich zatrudnia, to redukuje własne zyski. Dzięki przedsiębiorstwom prowadzonym przez pracodawców odmawiających płacenia wynagrodzenia kobietom i/lub mniejszościom w oparciu o ich produktywność, inni – poszukujący zysku – pracodawcy mogą zatrudnić tych pracowników. Na rynku, na którym funkcjonuje wiele podmiotów, jeśli właścicielom przedsiębiorstw bardziej zależy na kolorze pieniędzy niż na kolorze skóry, istnieje silna motywacja do podejmowania decyzji dotyczących kupna, sprzedaży, zatrudniania i promocji w oparciu wyłącznie o czynniki ekonomiczne.
Dlaczego zatem na konkurencyjnych rynkach dyskryminacja się utrzymuje? Gary Becker starał się wyjaśnić tę zagadkę. Impulsy dyskryminacyjne mogą pojawiać się na wielu poziomach: wśród menedżerów, pracowników i klientów. Rozważ sytuację menedżera, który nie jest osobiście uprzedzony, ale ma wielu pracowników lub klientów, którzy nie zaakceptują kobiety pracującej w „typowo męskim” zawodzie. Jeśli ten menedżer traktuje grupy mniejszościowe lub kobiety sprawiedliwie, może to odbić się na morale jego uprzedzonych współpracowników lub odstraszyć niektórych klientów. W takiej sytuacji polityka niedyskryminacji mogłaby zmniejszyć zyski firmy. W końcu przedsiębiorstwo jest częścią społeczeństwa i jeśli nie przestrzega jego norm, prawdopodobnie ucierpi. Same siły rynkowe raczej nie stłumią silnych postaw społecznych dotyczących dyskryminacji.
### Key Concepts and Summary
Dyskryminacja na rynku pracy ma miejsce wtedy, gdy pracodawcy płacą zróżnicowane wynagrodzenia pracownikom mającym jednakowe wykształcenie, doświadczenie i umiejętności – ze względu na rasę, płeć, religię, wiek lub niepełnosprawność. W Stanach Zjednoczonych kobiety zarabiają średnio mniej niż pracownicy płci męskiej, z kolei czarnoskórzy otrzymują średnio niższe pensje niż biali. Istnieją pewne kontrowersje co do tego, które z niedyskryminacyjnych różnic w wykształceniu i doświadczeniu zawodowym mogą uzasadniać te różnice w zarobkach. Wolny rynek może pozwolić na dyskryminację, ale groźba utraty części zysków lub odejścia produktywnych pracowników stwarza również zachęty dla przedsiębiorstw, by zaniechały zachowań dyskryminacyjnych.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
|
# Wprowadzenie do rynku czynników produkcji
## Popyt i podaż na rynku finansowym
Gospodarstwa domowe, organizacje i przedsiębiorstwa w Stanach Zjednoczonych zaoszczędziły w 2015 r. prawie 1,3 bln dol. (z kolei w Polsce we wrześniu 2021 r. oszczędności gospodarstw domowych szacowano na 1,94 bln zł i była to kwota o blisko 13% wyższa niż na koniec września poprzedniego roku). Gdzie te oszczędności trafiają i jak są wykorzystywane? Część zostaje przekazana do banków, które z kolei pożyczają te pieniądze gospodarstwom domowym lub podmiotom gospodarczym w formie pożyczek lub kredytów. (Zgodnie z polskim prawem pożyczka to środki pieniężne, które pożyczkobiorca może wykorzystać w dowolny sposób. Kredyt natomiast zawsze zaciągany jest na konkretny cel, np. zakup nieruchomości – domu lub mieszkania, ale też samochodu, sprzętu RTV i AGD itd.). Inna część zostaje zainwestowana w prywatne przedsiębiorstwa lub pożyczona instytucjom sektora finansów publicznych (państwu lub samorządom), zbierającym fundusze na takie cele jak budowa dróg lub finansowanie komunikacji zbiorowej. Niektóre przedsiębiorstwa reinwestują swoje oszczędności, kupując nowe maszyny, środki transportu, sprzęt komputerowy lub opłacając swoim pracownikom szkolenia.
W tym podrozdziale omówimy, jak model popytu i podaży łączy podmioty, które mają do zaoferowania kapitał finansowy (ang. ) (tj. oszczędności) z jednostkami i organizacjami zgłaszającymi zapotrzebowanie na ten środek produkcji (tj. pożyczki i kredyty). Ci, którzy oszczędzają pieniądze (lub dokonują inwestycji finansowych, co de facto oznacza to samo), zarówno osoby fizyczne, jak i przedsiębiorstwa, stoją po stronie podaży na rynku finansowym. Natomiast ci, którzy zaciągają pożyczki lub biorą kredyty, znajdują się na tym rynku po stronie popytu.
### Kto tworzy popyt i podaż na rynku finansowym?
Na każdym rynku dostawcy otrzymują określoną, uiszczaną przez nabywców cenę za sprzedane dobro. Na rynku finansowym dostawcy środków finansowych (pochodzących z oszczędności) oczekują założonej stopy zwrotu (wynagrodzenia za udostępniony kapitał), podczas gdy ci, którzy te środki pożyczają od innych (otrzymują fundusze), rozumieją, że muszą za to zapłacić. Ta zapłata może przybierać różne formy, w zależności od rodzaju inwestycji.
Najprostszym przykładem stopy zwrotu jest stopa procentowa (ang. ). Na przykład, kiedy wpłacasz pieniądze na konto oszczędnościowe w banku, otrzymujesz odsetki od swojego depozytu. Odsetki, które bank ci wypłaca, są naliczane zgodnie z obowiązującą stopą procentową. Podobnie jeśli zaciągniesz kredyt na zakup samochodu lub pożyczkę na świąteczne zakupy, musisz zapłacić odsetki od pożyczonych pieniędzy.
Spójrzmy na rynek pożyczek udzielanych za pomocą kart kredytowych. W 2015 r. prawie 200 mln Amerykanów posiadało takie karty (na koniec 2020 r. liczba kart kredytowych w portfelach Polaków szacowana była na 5,5 mln). Karty kredytowe pozwalają pożyczyć pieniądze od wystawcy karty i spłacić pożyczoną kwotę wraz z odsetkami. Większość z nich pozwala na spłatę pożyczki bez płacenia odsetek, jeśli nastąpi to w określonym czasie (tzw. okresie bezodsetkowym). Typowe oprocentowanie kredytu zaciągniętego za pomocą karty kredytowej w Polsce wynosi czterokrotność stopy lombardowej NBP (w kwietniu 2022 r. było to 20%). Na początku 2018 r. wysokość zadłużenia Polaków na kartach kredytowych była szacowana na blisko 700 mln zł.
Na pokazany jest popyt i podaż na rynku pożyczek udzielanych za pośrednictwem kart kredytowych. Na osi poziomej przedstawiona jest ilość środków finansowych pożyczonych na tym rynku. Oś pionowa, czyli oś ceny, pokazuje stopę oprocentowania takich pożyczek. pokazuje ilość pieniędzy, których konsumenci potrzebują przy różnych poziomach stóp procentowych, oraz ilość pieniędzy, jaką przedsiębiorstwa obsługujące karty kredytowe (najczęściej banki) są skłonne dostarczyć.
Na rynku finansowym nadal obowiązują prawa popytu i podaży. Zgodnie z prawem popytu (ang. ) wyższa stopa zwrotu (czyli wyższa cena) zmniejszy zapotrzebowanie. A więc wraz ze wzrostem stopy procentowej konsumenci zmniejszą wielkość zaciąganych pożyczek. Zgodnie z prawem podaży (ang. ) wyższa cena powoduje wzrost ilości oferowanej (ceteris paribus). W konsekwencji wraz ze wzrostem oprocentowania pożyczek na kartach kredytowych coraz więcej przedsiębiorstw będzie skłonnych je wydawać i zachęcać klientów do ich używania. I odwrotnie, jeśli oprocentowanie kart kredytowych spadnie, ilość środków pieniężnych dostarczonych na rynek kart kredytowych się zmniejszy, a zapotrzebowanie wzrośnie.
### Równowaga na rynku finansowym
Na rynku pożyczek z kart kredytowych przedstawionym na krzywa podaży (S) i krzywa popytu (D) przecinają się w punkcie równowagi (E). Równowaga występuje przy stopie procentowej równej 15%, gdzie zapotrzebowanie na pożyczki i oferowana wielkość środków finansowych są sobie równe i wynoszą 600 mld zł.
Jeśli stopa procentowa (pamiętajmy, że jest to cena na rynku finansowym) jest wyższa od poziomu równowagi, pojawi się nadwyżka oferowanej ilości pożyczek. Na przykład przy stopie procentowej 21% ilość dostarczonych na rynek środków wzrasta do 750 mld zł, podczas gdy zapotrzebowanie spada do 480 mld. Przy takiej stopie procentowej wystawcy kart chętnie udzielają pożyczek ich posiadaczom, ale stosunkowo niewiele osób lub podmiotów gospodarczych chce brać te pożyczki (przeciąga spłatę poza okres bezodsetkowy). W rezultacie niektóre firmy obsługujące karty kredytowe obniżą pobierane oprocentowanie (lub inne opłaty), aby przyciągnąć więcej klientów. Ta strategia zepchnie stopę procentową w dół, do poziomu równowagi.
Jeżeli stopa procentowa jest poniżej poziomu równowagi, wówczas na tym rynku występuje nadwyżka popytu. Przy stopie procentowej równej 13% zapotrzebowanie na pożyczki na kartach kredytowych wzrasta do 700 mld zł, ale firmy obsługujące karty kredytowe są w stanie dostarczyć tylko 510 mld (w praktyce będą znacznie mniej chętne do oferowania kart kredytowych klientom i będą zmniejszać limity wydatków przypisane do konkretnych osób). W takiej sytuacji firmy zauważą, że mają wielu chętnych do wyrobienia karty kredytowej i zaciągnięcia pożyczki, co przełoży się na podniesienie oprocentowania, opłat i prowizji. Stopa procentowa będzie poddawana presji ekonomicznej pchającej ją w górę, w kierunku poziomu równowagi.
W bazie danych FRED dostępne są informacje dotyczące ok. 20 różnych stóp procentowych w USA, w tym oprocentowania kart kredytowych, kredytów samochodowych, pożyczek osobistych, kredytów hipotecznych i innych. Możesz je znaleźć na tej stronie.
### Przesunięcia krzywych popytu i podaży na rynku finansowym
Dostawcy środków finansowych na rynek kapitałowy stoją przed dwiema ważnymi decyzjami: ile zaoszczędzić i w jaki sposób alokować swoje oszczędności między różne rodzaje inwestycji finansowych. Omówimy kolejno każdą z nich.
Uczestnicy rynku finansowego muszą zdecydować, kiedy wolą realizować swoją konsumpcję: teraz czy w przyszłości? Ekonomiści nazywają to podejmowaniem decyzji międzyokresowych (ang. ), ponieważ dotyczy spraw rozłożonych w czasie. W przeciwieństwie do decyzji o zakupach w sklepie spożywczym, te inwestycyjne lub dotyczące oszczędności podejmowane są w dłuższym horyzoncie czasowym i podmioty gospodarcze niechętnie je zmieniają.
Większość pracowników oszczędza na emeryturę, ponieważ przyszłe dochody mogą okazać się niewystarczające, aby zaspokoić ich potrzeby. Z tego powodu zmniejszają bieżącą konsumpcję i zasilają rynki finansowe. A jeśli ich dochody rosną, to oszczędzają więcej. Zmiana postrzegania ich przyszłej sytuacji (np. rosnąca obawa przed popadnięciem w biedę po ustaniu aktywności zawodowej) powoduje zmianę wysokości ich dzisiejszych oszczędności.
W przeciwieństwie do osób w sile wieku wielu studentów potrzebuje pieniędzy dzisiaj, gdy ich dochody są niskie (lub w ogóle ich nie mają), aby opłacić czesne za studia i koszty utrzymania po założeniu samodzielnego gospodarstwa domowego (wyprowadzce od rodziców). W rezultacie zaciągają pożyczki, zwiększając bieżącą konsumpcję, a więc zgłaszają zapotrzebowanie na kapitał na rynku finansowym. Po ukończeniu studiów i podjęciu pracy spłacają zaciągnięte pożyczki i wtedy maleją ich środki na bieżącą konsumpcję. Osoby fizyczne pożyczają także pieniądze na zakup domów lub samochodów. Przedsiębiorstwa z kolei poszukują środków finansowych, aby mieć kapitał niezbędny do sfinansowania budowy fabryk lub realizacji projektów badawczo-rozwojowych, których horyzont inwestycyjny może wynosić nawet kilka–kilkanaście lat. Tak więc gdy konsumenci i przedsiębiorstwa oceniają jako wysoce prawdopodobne, że będą w stanie spłacić zadłużenie w przyszłości, dzisiejszy popyt na pożyczki i kredyty przesunie się w prawo.
Na przykład w czasie boomu technologicznego pod koniec lat 90. XX w. (tzw. bańki dotcomowej) wiele przedsiębiorstw nabrało pewności, że inwestycje w nową technologię przyniosą wysoką stopę zwrotu. Ich popyt na kredyty i pożyczki przesunął się w prawo. I odwrotnie, podczas kryzysu finansowego, który rozpoczął się w 2008 r., zapotrzebowanie na kredyty i pożyczki przy dowolnej stopie procentowej przesunęło się w lewo.
Do tej pory szukaliśmy oszczędności, aby zapewnić dopływ kapitału na rynek. Zastanówmy się teraz, co wpływa na wybór instrumentów finansowych umożliwiających oszczędzanie/inwestowanie. Decydując się na konkretny produkt finansowy (lokatę, obligacje, akcje itd.), dostawcy kapitału będą musieli wziąć pod uwagę zarówno stopy zwrotu, jak i związane z nimi ryzyko. Jeśli inwestycja A stanie się bardziej ryzykowna lub stopa zwrotu związana z tą formą lokowania kapitału się zmniejszy, oszczędzający przesuną swoje środki finansowe do inwestycji B. Krzywa podaży środków finansowych dla inwestycji A przesunie się więc w lewo, podczas gdy krzywa podaży środków finansowych dla inwestycji B powędruje w prawo.
### Pułapy cenowe na rynku finansowym: przepisy dotyczące lichwy
Jak zauważyliśmy wcześniej, miliony Amerykanów i Polaków posiadają karty kredytowe. Odsetki i opłaty za ich użytkowanie wynoszą rocznie dziesiątki miliardów dolarów i złotych. Nic więc dziwnego, że czasami pojawiają się naciski polityczne na ustalanie maksymalnego poziomu stóp procentowych lub opłat pobieranych przez firmy obsługujące karty kredytowe i udzielające pożyczek i kredytów. Przedsiębiorstwa te, a także banki, koncerny paliwowe, firmy telekomunikacyjne i sklepy detaliczne, odpowiadają, że wyższe stopy procentowe są konieczne, aby pokryć straty poniesione w związku z tymi klientami, którzy nie spłacają swoich zobowiązań w terminie. Zwracają również uwagę, że posiadacze kart mogą uniknąć płacenia odsetek, jeśli na czas spłacają zobowiązania z tytułu pożyczek z kart kredytowych.
Pierwsza ustawa antylichwiarska w Polsce została wprowadzona 20 lutego 2006 r. Uchwalono ją z myślą o kredytobiorcach, którzy często zmuszani byli zwrócić bankowi nawet dwukrotność pożyczonej kwoty. Ustawa ta określała jasno, że odsetki od zobowiązań nie mogą być wyższe niż czterokrotność stopy lombardowej NBP (i tyle, jak to już zostało wskazane powyżej, zazwyczaj wynosi oprocentowanie pożyczek z kart kredytowych w Polsce). Zmiany w ustawie wprowadzono w roku 2015, a następnie w 2019 r., kiedy to pojawił się w niej zapis dotyczący ograniczenia pozaodsetkowych kosztów pożyczki do maksymalnie 10% jej wartości.
Spójrz na rynek kart kredytowych zaprezentowany na . Oś pionowa pokazuje stopę procentową (która jest ceną na rynku finansowym). Popyt na rynku kart kredytowych generują gospodarstwa domowe i przedsiębiorstwa. Dostawcami tworzącymi podaż są firmy wydające karty kredytowe. Ten wykres nie zawiera konkretnych danych, ale skupia się na podstawowych relacjach ekonomicznych. Wyobraźmy sobie, że prawo nakłada pułap cenowy, który utrzymuje oprocentowanie pożyczek z kart kredytowych na poziomie Rc, niższym od stopy procentowej równej R0, która ukształtowałaby się na rynku wolnym od ustawowej ingerencji. Zależności wbudowane w model popytu i podaży przewidują, że przy stopie procentowej niższej od stopy równowagi zapotrzebowanie na pożyczki z kart kredytowych wzrośnie z poziomu Q0 do Qd; jednak ilość oferowanych pożyczek z tych kart zmniejszy się z pierwotnego Q0 do Qs. Przy cenie maksymalnej (Rc) zapotrzebowanie przewyższy ofertę. W efekcie wiele osób, które chcą otrzymać karty kredytowe i płacić obowiązujące oprocentowanie, spotka się z odmową. W konsekwencji liczba udzielonych pożyczek i ich wartość spadną.
W wielu krajach obowiązuje prawo antylichwiarskie (ang. ), które ustanawia górny limit dla wysokości stopy procentowej, jakiej mogą zażądać pożyczkodawcy. Jednak w wielu przypadkach limity te są zdefiniowane powyżej rynkowej stopy procentowej. Z taką sytuacją mamy do czynienia m.in. w Polsce. Jeśli limit oprocentowania pożyczek i kredytów został ustalony na poziomie 30%, to oprocentowanie nie może być wyższe, ale może kształtować się poniżej tego limitu. Maksymalny poziom oprocentowania nie będzie wówczas wiążący i nie będzie oddziaływał, chyba że cena równowagi (stopa procentowa) wzrośnie wystarczająco wysoko i przekroczy zdefiniowany przez ustawodawcę pułap cenowy.
### Key Concepts and Summary
Ceną na rynkach finansowych jest stopa zwrotu, jaką podmioty dostarczające kapitał (pożyczkodawcy) spodziewają się uzyskać za zaoferowane pożyczkobiorcom środki finansowe. Najczęściej taką stopą zwrotu jest stopa procentowa. Natomiast wielkość produkcji na tym rynku to wartość pieniędzy przepływających od tych, którzy dostarczają środki finansowe, do tych, którzy ich potrzebują.
Krzywa podaży środków finansowych przeznaczonych na konkretną inwestycję może ulec przesunięciu w związku z dwoma czynnikami: zmianą obecnego poziomu konsumpcji oraz zmianą poziomu ryzyka lub stopy zwrotu z tej konkretnej inwestycji w relacji do innych sposobów wykorzystania kapitału. Czynniki, które mogą zmienić popyt na środki finansowe, obejmują przede wszystkim przewidywania przedsiębiorców i konsumentów odnoszące się do przyszłości, ponieważ inwestycje finansowe wykorzystujące pożyczony kapitał ze swej istoty spłacane są w przyszłości.
### Self-Check Questions
### Review Questions
### Critical Thinking Questions
### Problems
### References
CreditCards.com. 2013. http://www.creditcards.com/credit-card-news/credit-card-industry-facts-personal-debt-statistics-1276.php. |
# Wprowadzenie do rynku czynników produkcji
## System rynkowy jako efektywny mechanizm informacyjny
Ceny to podstawowy parametr określający sytuację na rynkach dóbr i usług, pracy oraz na rynku finansowym. Są one nośnikiem istotnych informacji, kluczowych z punktu widzenia podmiotów chcących zawrzeć transakcje na konkretnym rynku. W gospodarce rynkowej żadna agencja rządowa ani żaden system sztucznej inteligencji nie śledzą reakcji podmiotów ekonomicznych na zmiany cen. Każdy konsument reaguje zgodnie z własnymi preferencjami i ustalonym budżetem, a każdy producent dąży do maksymalizacji zysku. Poniższa objaśnia sposób funkcjonowania modeli popytu i podaży (ang. ).
Wzrost ceny niektórych produktów sygnalizuje konsumentom ich niedobór na rynku (nadwyżkę popytu), dlatego mogą chcieć zaoszczędzić na ich zakupie. Na przykład jeśli myślisz o podróży samolotem do Włoch lub Francji, ale bilet na wybrany przez ciebie dzień okazuje się zbyt drogi, możesz rozważyć inne terminy. Cena może być wysoka, ponieważ planowałeś podróż w piątek w czasie szkolnych wakacji (choć sam nie masz jeszcze dzieci) lub w bezpośrednim sąsiedztwie świąt, czyli w okresie, w którym zapotrzebowanie na to specyficzne dobro jest szczególnie wysokie. Być może wzrósł koszt nakładów niezbędnych do produkcji tego dobra, bo zdrożało paliwo do silników odrzutowych, albo linia lotnicza tymczasowo podniosła cenę, aby zobaczyć, ile osób jest gotowych ją zapłacić. Być może wszystkie te czynniki występują jednocześnie. Nie musisz analizować rynku i rozkładać zmiany ceny na czynniki pierwsze. Wystarczy spojrzeć na cenę biletu i zdecydować, czy i kiedy ostatecznie chcesz lecieć.
W ten sam sposób zmiany cen dostarczają użytecznych informacji producentom. Wyobraź sobie sytuację rolnika, który uprawia owies i dowiaduje się, że cena owsa wzrosła. Wyższa cena może być spowodowana wzrostem popytu, uzasadnionym nowymi badaniami naukowymi potwierdzającymi bez żadnych wątpliwości, że jedzenie owsa jest szczególnie zdrowe (nie tylko dla koni!). Być może cena zbóż zastępczych, takich jak kukurydza, wzrosła, a ludzie zareagowali, kupując więcej owsa. Producent owsa nie musi znać takich szczegółów, choć oczywiście powinien się nimi interesować, jeśli profesjonalnie zajmuje się tą konkretną działalnością. Musi być natomiast świadomy, że cena owsa wzrosła i że w rezultacie opłaca się zwiększyć jego produkcję.
Sposoby reakcji każdego z konsumentów i producentów na zmiany cen nakładają się i zazębiają na rynkach dóbr konsumpcyjnych i czynników produkcji (pracy i kapitału). Zmiana na każdym z pojedynczych rynków może być następnie w pewnym stopniu odzwierciedlona przez przesunięcia krzywych popytu i podaży na innych rynkach. To, że ostatecznie efektem każdego z możliwych szoków będzie ustalenie równowagi na wszystkich rynkach w gospodarce, zaś kluczową rolę w tym procesie odgrywają ceny, pomaga wyjaśnić, dlaczego kontrola cen (ang. ) może być tak nieproduktywna. Proces ten nie unieważnia przecież czynników (szoków), które wpłynęły na zmianę ceny lub cen na konkretnym rynku (rynkach). Jest reakcją na objawy, a nie próbą zlikwidowania przyczyn. Jeśli państwo w arbitralny sposób ograniczy możliwość podnoszenia cen na rynku wynajmu mieszkań (zamiast pomyśleć o tym, jak zwiększyć dostępny zasób lokali), zachowa się jak osoba, która ból zęba próbuje zwalczyć połknięciem tabletki przeciwbólowej, zamiast pójść do dentysty. Ostatecznie i tak trzeba będzie zmierzyć się z przyczyną problemu, a nie łagodzić objawy jego występowania. Ceny pełnią funkcję analogiczną do starożytnych posłańców, którzy przynosili władcom złe wieści. Pokusa, aby zabić takiego posłańca, jest bardzo duża, ale jest to działanie kontrproduktywne, bo przecież to nie wina posłańca, że armia władcy poniosła w bitwie klęskę. Co więcej, zabicie posłańca miałoby niepożądany efekt uboczny: inni posłańcy odmawialiby przekazywania wiadomości temu władcy, co pozbawiałoby go dostępu do ważnych informacji.
Dążenie do kontroli cen to próba „zabicia posłańca” lub przynajmniej zagłuszenia niepożądanego komunikatu o tym, że popyt i podaż w istotny sposób się zmieniają. Kontrola cen nie wpływa na podstawowe siły popytu i podaży, a to może mieć poważne reperkusje. Podczas chińskiego „Wielkiego skoku” pod koniec lat 50. XX w. rząd sztucznie utrzymywał ceny żywności na niskim poziomie, w wyniku czego 30–40 mln ludzi zmarło z głodu, ponieważ niskie ceny doprowadziły do obniżenia produkcji rolnej. Przypomnijmy, „Wielki skok” to była polityczna kampania zainicjowana przez przywódcę partii komunistycznej Mao Zedonga. Jej celem było przekształcenie kraju z rolniczego w przemysłowy poprzez wprowadzenie kolektywizacji i szybkiej industrializacji. Kontrola cen powoduje unieruchomienie informatora cenowego, jakim jest rynek, uniemożliwiając podmiotom w gospodarce dostęp do kluczowej informacji. Bez niej wszystkim, zarówno kupującym, jak i sprzedającym, trudno będzie reagować w elastyczny i właściwy sposób na zmiany zachodzące w całej gospodarce.
### Key Concepts and Summary
System cen rynkowych zapewnia wysoce efektywny mechanizm dystrybuowania informacji o względnych niedoborach dóbr i usług, siły roboczej i środków finansowych. Uczestnicy rynku nie muszą wiedzieć, dlaczego ceny się zmieniły, a jedynie, że zmiany te wymagają od nich ponownego rozważenia wcześniejszych decyzji dotyczących zakupu lub sprzedaży. Mechanizmy kontroli cen, takie jak ceny minimalne i maksymalne, ukrywają informacje o realnej skali niedoborów na rynkach, a tym samym powodują niewłaściwą alokację zasobów.
### Self-Check Questions
### Review Question
### Critical Thinking Questions
### Problems
|
# Zawodność rynku – państwo a biznes
## Wprowadzenie do rozdziału
### Wprowadzenie do rozdziału
Od pewnego czasu i w krajach rozwijających się, i w krajach rozwiniętych coraz wyraźniejsza staje się tendencja wzrostu znaczenia rynku jako głównego mechanizmu określania tego, co jest produkowane i sprzedawane, w jakiej ilości i po jakiej cenie. Jej najważniejszym przejawem jest wprowadzana w wielu państwach na szeroką skalę deregulacja, w efekcie której prywatne przedsiębiorstwa powiększają swój margines swobody w procesie podejmowania decyzji. Polityka, która rozstrzyganie dylematów gospodarczych pozostawia rynkowi, jest dość powszechnie akceptowana.
Mechanizm rynkowy często jednak zawodzi. Mimo nieustannie rosnącego poziomu rozwoju i wzrostu dobrobytu społecznego nasze rzeki pozostają zanieczyszczone, ulice miast są coraz bardziej zatłoczone, zaś postęp techniczny, który jeszcze 50 lat temu miał zapewnić człowiekowi bazy na Marsie i uwolnienie od większość chorób i ograniczeń, spowolnił. Niemal egzystencjalnym problemem ludzkości staje się kwestia zmian klimatycznych, które mogą zagrozić fizycznym unicestwieniem miliardów ludzi w perspektywie najbliższego stulecia. W konsekwencji rola państwa w gospodarce wcale nie maleje. Wydaje się wręcz, że niektóre problemy ludzkości (poza kwestiami klimatycznymi można do nich zaliczyć również globalne pandemie) dają się rozwiązać wyłącznie dzięki współpracy na szczeblu globalnym.
W niniejszym rozdziale przedstawimy różne formy i przejawy zawodności rynku, z powodu których nie zapewnia on należytej realizacji interesów społecznych. Przyjrzymy się również metodom wykorzystywanym zarówno przez państwo, jak i podmioty prywatne, aby zidentyfikowane ułomności korygować.
|
# Zawodność rynku – państwo a biznes
## Negatywne efekty zewnętrzne związane z problemem zanieczyszczenia środowiska
Rynki, np. rynek telefonii komórkowej, oferują efektywny sposób łączenia kupujących i sprzedających oraz określania, jakie dobra produkować, jak również dla kogo i w jaki sposób to robić. Fundamentem ekonomicznego sposobu myślenia jest zasada, że dobrowolne wymiany (transakcje rynkowe) przynoszą korzyści zarówno kupującym, jak i sprzedającym, dlatego w ogóle dochodzą one do skutku. Co się jednak dzieje, gdy zakupy dokonywane na rynku wpływają na podmioty trzecie, które nie są ani kupującymi, ani sprzedającymi?
Jako przykład rozważmy sytuację organizatora koncertów, który w odległości pół kilometra od twojego miejsca zamieszkania chce zbudować scenę na świeżym powietrzu mającą służyć występom wykonawców muzyki disco polo. Będziesz słyszeć ich popisy, siedząc w swoim przydomowym ogródku (lub na balkonie), a może nawet w jadalni. W tym przypadku zarówno organizator koncertu, jak i nabywcy biletów mogą być całkiem zadowoleni z ich dobrowolnej wymiany, zaś twoje zdanie nie ma wpływu na to, czy ich transakcja zostanie zawarta i jakie będą jej warunki. Wpływ konkretnej wymiany rynkowej na stronę trzecią, która w niej nie uczestniczy, a więc znajduje się „na zewnątrz”, nazywa się efektem zewnętrznym (ang. ). Ponieważ efekty zewnętrzne oddziałują na podmioty niezaangażowane w transakcję rynkową, są one czasami nazywane efektami ubocznymi (ang. ).
Efekty zewnętrzne mogą być negatywne (ujemne) lub pozytywne (dodatnie). Jeśli nienawidzisz muzyki disco polo, konieczność słuchania jej w każdy weekend jest negatywnym efektem zewnętrznym (ang. ). Jeśli zaś uwielbiasz ten gatunek, wówczas możliwość bezpłatnego słuchania tego typu utworów w domu będzie pozytywnym efektem zewnętrznym (ang. ).
### Zanieczyszczenie środowiska jako negatywny efekt zewnętrzny
Zanieczyszczenie środowiska to negatywny efekt zewnętrzny. Ekonomiści przedstawiają koszty społeczne (ang. ) produkcji, posługując się wykresem z krzywymi popytu i podaży. Koszty społeczne obejmują zarówno prywatne koszty produkcji, które ponosi firma, jak i koszty zanieczyszczeń, które przenoszone są na społeczeństwo. przedstawia popyt i podaż lodówek. Krzywa popytu (D) pokazuje wielkość zapotrzebowania na lodówki przy każdym poziomie ceny rynkowej. Krzywa podaży (Spryw) wskazuje z kolei liczbę lodówek oferowaną do sprzedaży przez wszystkie przedsiębiorstwa w tej gałęzi przemysłu przy każdej cenie, zakładając, że przedsiębiorstwa biorą pod uwagę tylko swoje koszty prywatne i mogą całkowicie bezkosztowo emitować zanieczyszczenia. Równowaga rynkowa (E0), czyli punkt zrównania podaży z popytem, występuje przy cenie 650 zł za lodówkę i wolumenie produkcji równym 45 tys. lodówek. Informacje te są zawarte w pierwszych trzech kolumnach .
Producenci lodówek powodują zanieczyszczenie środowiska, co jest produktem ubocznym zastosowanej technologii, w ramach której zużywane są metale, tworzywa sztuczne, chemikalia i energia. Załóżmy, że koszt zanieczyszczeń powstałych przy produkcji jednej lodówki równy jest 100 zł. Koszty te są wynikiem niekorzystnego wpływu zanieczyszczeń na zdrowie ludzi, wartość nieruchomości, siedliska dzikiej przyrody, możliwości rekreacji lub z powodu innych negatywnych skutków, jakie ze sobą niosą. Na rynku, na którym nie ma ograniczeń dotyczących emisji zanieczyszczeń, przedsiębiorstwa mogą pozbywać się niektórych odpadów całkowicie za darmo. A teraz wyobraź sobie, że firmy produkujące lodówki muszą uwzględniać koszty zewnętrzne (ang. ) zanieczyszczenia. Oznacza to, że firmy muszą brać pod uwagę nie tylko koszty pracy i materiałów, ale także koszty społeczne związane z wynikającymi z procesu produkcyjnego lodówek szkodami na zdrowiu i życiu ludzi oraz degradacją środowiska naturalnego. Jeśli przedsiębiorstwo musi zapłacić 100 zł za dodatkowe koszty zewnętrzne (ang. ) zanieczyszczeń za każdym razem, gdy wytworzy lodówkę, produkcja staje się droższa i krzywa podaży przesuwa się w górę o odcinek równy 100 zł.
Jak widać na i , nowa równowaga wystąpi w punkcie E1. Przedsiębiorstwa uzyskają cenę równą 700 zł za każdą lodówkę i wyprodukują 40 tys. sztuk tego dobra, a nową krzywą podaży będzie Sspoł. Krótko mówiąc, uwzględnienie dodatkowych kosztów zewnętrznych zanieczyszczeń skutkuje wyższą ceną, niższą produkcją i mniejszą ilością zanieczyszczeń. Poniższa poprowadzi cię przez kolejny przykład negatywnych efektów zewnętrznych, tym razem związany z grą na trąbce.
Pamiętaj, że krzywa podaży reprezentuje decyzje produkcyjne przedsiębiorstw podejmowane na podstawie kosztów krańcowych, a krzywa popytu przedstawia korzyści uzyskiwane przez ludzi, którzy maksymalizują swoją prywatną użyteczność. Gdyby nie istniały żadne efekty zewnętrzne, koszty prywatne byłyby takie same jak koszty dla ogółu społeczeństwa, a korzyści prywatne byłyby takie same jak korzyści społeczne. A zatem przy braku efektów zewnętrznych równość popytu i podaży doprowadzi do zbilansowania się kosztów i korzyści społecznych.
Jeśli jednak istnieją efekty zewnętrzne związane z zanieczyszczeniem środowiska, krzywa podaży nie reprezentuje już wszystkich kosztów społecznych. Ponieważ w przypadku występowania efektów zewnętrznych rynki nie uwzględniają wszystkich kosztów społecznych, a tylko niektóre z nich (wyłącznie koszty prywatne), ekonomiści traktują efekty zewnętrzne jako przykład zawodności rynku (ang. ). Gdy występuje zawodność rynku, niemożliwe jest osiągnięcie efektywnej wielkości produkcji, ponieważ firmy nie uwzględniają wszystkich kosztów produkcji i/lub konsumenci nie uwzględniają – w przypadku pozytywnych efektów zewnętrznych – wszystkich korzyści związanych z zakupem dóbr (dokładna analiza konsekwencji istnienia pozytywnych efektów zewnętrznych znajdzie się w kolejnych podrozdziałach). Gdy mamy do czynienia z zanieczyszczeniem środowiska, społeczne koszty produkcji przewyższają społeczne korzyści dla konsumentów i rynek produkuje zbyt dużo.
Możemy teraz sformułować pewien ogólny wniosek. Gdyby przedsiębiorstwa musiały ponosić społeczne koszty zanieczyszczeń, emitowałyby ich mniej, wytwarzałyby mniej produktów i pobierały wyższe ceny. W następnym podrozdziale przeanalizujemy, jak państwo może wymusić na przedsiębiorstwach uwzględnianie społecznych kosztów zanieczyszczeń.
### Kluczowe pojęcia i podsumowanie
Produkcja może powodować szkody środowiskowe niezależnie od tego, czy jest ulokowana w krajach wysoko uprzemysłowionych, czy rozwijających się.
Efekty zewnętrzne pojawiają się, gdy wymiana między kupującym a sprzedającym ma wpływ na podmioty trzecie, które nie uczestniczą w transakcji i nie otrzymują z tego tytułu rekompensaty lub nie płacą za powstałą korzyść. Efekt zewnętrzny, który jest również nazywany efektem ubocznym, może mieć negatywny lub pozytywny wpływ na stronę trzecią. Jeśli podmiot wywołujący negatywne efekty zewnętrzne musiałby uwzględnić koszty społeczne swoich działań, miałby bodźce do zmniejszenia produkcji niezależnie od tego, jaka jest przyczyna negatywnego efektu zewnętrznego. W przypadku pozytywnego efektu zewnętrznego strona trzecia uzyskuje korzyści dzięki transakcji między kupującym a sprzedającym, ale za owe korzyści nie płaci. W takim przypadku produkcja rynkowa jest zbyt mała, ponieważ sprzedawcy nie uwzględniają dodatkowych korzyści po stronie podmiotów trzecich. Jeśli strony transakcji, która generuje korzyści społeczne, otrzymywałyby jakąś rekompensatę, miałyby motywację do zwiększenia produkcji niezależnie od tego, jaka jest przyczyna pozytywnych efektów zewnętrznych.
### Pytania Self-Check
### Pytania Review
### Problemy
### Bibliografia
Johnson, Oscar William. “Back on Track: Earth Day Success Story; The Chattanooga Choo-Choo No Longer Spews Foul Air.” Sports Illustrated. April 30, 1990. http://www.si.com/vault/1990/04/30/121923/back-on-track-earth-day-success-story-the-chattanooga-choo-choo-no-longer-spews-foul-air.
U.S. Energy Information Administration. “Total Energy: Monthly Energy Review.” U.S. Department of Energy. Accessed December 19, 2013. http://www.eia.gov/totalenergy/data/monthly/. |
# Zawodność rynku – państwo a biznes
## Publiczne sposoby rozwiązania problemu negatywnych efektów zewnętrznych
Na przełomie lat 60. i 70. XX w. Stany Zjednoczone i pozostałe kraje o gospodarkach rynkowych zaczęły uchwalać kompleksowe przepisy dotyczące ochrony środowiska. Regulacje koncentrowały się zazwyczaj na ustaleniu progów dozwolonych emisji zanieczyszczeń dla konkretnych przedsiębiorstw i zakładów produkcyjnych. Przekroczenie ustanowionych progów skutkowało nałożeniem na podmioty kar finansowych. Inne przepisy zobowiązywały producentów różnego rodzaju dóbr do instalowania odpowiednich urządzeń ograniczających emisję szkodliwych substancji, np. na fabrycznych kominach i w silnikach spalinowych samochodów. Tego typu przepisy, które ustanawiają dopuszczalne limity emisji zanieczyszczeń i mogą szczegółowo określać, jakie technologie kontroli zanieczyszczeń przedsiębiorstwa muszą stosować, mieszczą się w kategorii systemu nakazowo-kontrolnego (ang. ). W efekcie takich regulacji rosną koszty produkcji, a firmy są zmuszone do uwzględnienia społecznych kosztów zanieczyszczeń przy podejmowaniu decyzji o wielkości produkcji.
Systemy regulacji nakazowo-kontrolnej w dziedzinie ochrony środowiska wprowadzone w ostatnich dziesięcioleciach w krajach wysoko uprzemysłowionych przyniosły poprawę jakości powietrza i wody. Ekonomiści wskazują jednak na trzy wyzwania związane z tym sposobem regulacji.
Po pierwsze, system nakazowo-kontrolny nie zachęca prywatnych podmiotów do działań wykraczających poza standardy wyznaczone przez konkretną ustawę, nawet jeśli można byłoby je przeprowadzić stosunkowo niewielkim kosztem. Gdy przedsiębiorstwa spełnią określony standard, nie mają motywacji do dalszej redukcji zanieczyszczeń.
Po drugie, system nakazowo-kontrolny jest wysoce nieelastyczny. Zwykle wprowadza te same przepisy dla wszystkich emitentów, a często również obowiązek instalowania tej samej technologii kontroli zanieczyszczeń we wszystkich fabrykach. Zatem nie rozróżnia firm, dla których spełnienie norm lub nawet dalsze zmniejszenie emisji zanieczyszczeń byłoby łatwe i tanie, oraz tych, dla których może to być trudne i kosztowne. Przedsiębiorstwa nie mają bodźców, aby przeprowadzać ponowną analizę wykorzystywanych metod produkcji, dokonywać ewentualnych korekt i dzięki temu stosunkowo niewielkim kosztem jeszcze bardziej obniżać emisję zanieczyszczeń.
Po trzecie, przepisy systemu nakazowo-kontrolnego są tworzone w ramach skomplikowanego procesu uzgodnień politycznych, a więc wynikają z różnych kompromisów między partiami politycznymi, władzami różnych szczebli i innymi lobbies. Działające na rynku od lat przedsiębiorstwa często argumentują (i starają się do tego sposobu myślenia przekonać polityków), że surowsze normy środowiskowe powinny mieć zastosowania wyłącznie do firm dopiero rozpoczynających działalność, a nie tych zasiedziałych w danej branży. W rezultacie wchodzące w życie przepisy dotyczące ochrony środowiska są zawiłe, mają wiele luk i wyjątków.
Chociaż krytycy regulacji stosowanych w systemach nakazowo-kontrolnych akceptują ich cel, jakim jest zmniejszenie emisji zanieczyszczeń, nie uznają tego typu środków za najlepszy sposób na jego osiągnięcie. W następnym podrozdziale omówimy więc alternatywne podejście do ograniczania negatywnych efektów zewnętrznych w dziedzinie ochrony środowiska.
### Kluczowe pojęcia i podsumowanie
Regulacje w systemie nakazowo-kontrolnym ustanawiają limity emisji zanieczyszczeń i/lub wymuszają stosowanie określonych technologii ich kontroli. Choć w wielu krajach w drugiej połowie XX w. poprawiły one stan środowiska, mają trzy podstawowe wady: nie zachęcają do dalszej redukcji emisji zanieczyszczeń, przekraczającej wyznaczone poziomy; oferują ograniczoną elastyczność co do tego, gdzie i jak zmniejszyć zanieczyszczenia; często zawierają też osłabiające ich skuteczność luki prawne które są konsekwencją negocjacyjnego trybu tworzenia tych rozwiązań.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
|
# Zawodność rynku – państwo a biznes
## Prywatne sposoby rozwiązania problemu negatywnych efektów zewnętrznych
Polityka ochrony środowiska wykorzystująca przede wszystkim prywatne (zorientowane na rynek) sposoby ograniczania skali emisji zanieczyszczeń, umożliwia przedsiębiorstwom zachowanie niezbędnego stopnia elastyczności. Trzema głównymi elementami tego podejścia są opłaty za emisję zanieczyszczeń, zbywalne zezwolenia na emisję tychże i lepiej zdefiniowane prawa własności. Wszystkie te działania, które omówimy w niniejszym podrozdziale, eliminują wskazane wcześniej wady regulacji w ramach systemu nakazowo-kontrolnego, aczkolwiek w różny sposób.
### Opłaty za emisję zanieczyszczeń
Opłata za emisję zanieczyszczeń (ang. ) to podatek od zanieczyszczeń nakładany na przedsiębiorstwo, które je emituje. Opłata taka stanowi dla firmy maksymalizującej zysk zachętę do redukcji emisji zanieczyszczeń, o ile koszt krańcowy redukcji emisji jest mniejszy niż wysokość podatku.
Rozważmy tu przykład niewielkiego przedsiębiorstwa, które emituje do atmosfery 50 kg sadzy rocznie. Pył zawieszony w powietrzu powoduje choroby układu oddechowego oraz obciąża finansowo inne biznesy i mieszkańców obszaru, na którym działa ta firma.
przedstawia koszty krańcowe ponoszone przez wspomniane przedsiębiorstwo w związku ze zmniejszeniem emisji zanieczyszczeń. Koszt krańcowy redukcji zanieczyszczeń, podobnie jak większość kosztów krańcowych, rośnie wraz ze wzrostem produkcji, przynajmniej w krótkim okresie. Zmniejszenie emisji cząstek sadzy o pierwsze 10 kg rocznie kosztuje firmę 300 zł. Redukcja o kolejne 10 kg wymaga już 500 zł nakładów, o trzecie – 900 zł, o czwarte 10 kg – 1500 zł, zaś całkowite wyeliminowanie emisji sadzy kosztowałoby dodatkowo 2,5 tys. zł. Taki schemat kształtowania się kosztów zmniejszania emisji zanieczyszczeń jest dość powszechny. Początkowo redukcję ilości wytwarzanych szkodliwych substancji można osiągnąć stosunkowo niewielkim kosztem, ale całkowite wyeliminowanie jakichkolwiek zanieczyszczeń wymaga już bardzo dużych nakładów finansowych.
Wyobraź sobie, że na przedsiębiorstwo została nałożona opłata za emisję zanieczyszczeń w wysokości 1000 zł za każde wypuszczone do atmosfery 10 kg sadzy rocznie. (W polskim systemie prawnym podatki mają charakter nieekwiwalentny, w związku z czym pozwolenie na emisję zanieczyszczeń będzie opłatą, a nie podatkiem, bo daje firmie wnoszącej tę płatność konkretne prawa. Podobnie składką, a nie podatkiem jest opłata, dzięki której zyskujemy prawo do korzystania z publicznych systemów opieki zdrowotnej i emerytalnego). Firma ma do wyboru albo emitować sadzę i wnosić narzuconą przez państwo opłatę, albo zmniejszyć ilość zanieczyszczeń, ponosząc odpowiednie koszty tej redukcji, co ilustruje powyższy wykres. O ile firma zmniejszy roczną skalę emisji zanieczyszczeń? Redukcja emisji sadzy o pierwsze 10 kg kosztuje 300 zł. To znacznie mniej niż 1000 zł opłaty, więc firma z pewnością zdecyduje się na redukcję emisji. Zmniejszenie emisji o kolejne 10 kg kosztuje 500 zł, czyli nadal mniej niż wartość opłaty, więc firma zadba o dalszą redukcję emisji. Ograniczenie skali wytwarzania sadzy o trzecie 10 kg kosztuje już 900 zł, czyli wciąż mniej niż 1000 zł podatku. Jednak ograniczenie emisji o czwarte 10 kg wymaga już 1500 zł nakładów, co znacznie przekracza wartość stosownej opłaty. W rezultacie firma zdecyduje się na redukcję emisji sadzy o 30 kg, ponieważ krańcowy koszt redukcji o tę wielkość jest mniejszy niż wartość opłat za emisję zanieczyszczeń. Przy opłacie w wysokości 1000 zł przedsiębiorstwo nie ma motywacji do zmniejszenia skali emisji sadzy o więcej niż 30 kg rocznie.
Firma, która musi wnosić opłatę od emisji zanieczyszczeń, będzie miała motywację do znalezienia najtańszych technologii ograniczania skali wytwarzanych szkodliwych substancji. Przedsiębiorstwa mogące łatwo i tanio zmniejszyć emisję zanieczyszczeń zrobią to, aby zminimalizować kwotę płaconego podatku, zaś przedsiębiorstwa, które ponoszą wysokie koszty redukcji np. sadzy, zapłacą podatek od zanieczyszczeń. Jeśli podatek od zanieczyszczeń ma zastosowanie do każdego ich źródła, producenci mający poparcie polityczne nie uzyskują preferencji ani nie mogą korzystać z luk prawnych. Choć, jak łatwo zauważyć, politycy mogą mimo wszystko wprowadzić wyłączenia, zwalniając ze stosownej opłaty zakład znajdujący się np. w ich okręgu wyborczym.
Jako przykład swoistej opłaty za produkcję zanieczyszczeń nakładanej na gospodarstwa domowe można wskazać dwa sposoby pobierania opłat za wywóz śmieci. Jedną z metod jest zryczałtowana kwota przypadająca na gospodarstwo domowe, niezależna od ilości wytworzonych śmieci (taka właśnie opłata obowiązuje m.in. w Warszawie i innych dużych miastach w Polsce). Alternatywnym podejściem jest wprowadzenie kilku poziomów rosnących opłat powiązanych z ilością produkowanych śmieci oraz oferowanie niższych stawek lub bezpłatnego odbioru odpadów posegregowanych i nadających się do recyklingu.
Tak naprawdę opłaty za emisję zanieczyszczeń są uwzględnione w wielu regulacjach dotyczących ochrony środowiska, chociaż często nie są w nich wskazywane wprost. Na przykład zarówno w Polsce, jak i w pozostałych krajach UE czy Stanach Zjednoczonych nakładane są podatki na paliwa silnikowe (etylinę, olej napędowy i gaz LPG). Możemy postrzegać ten podatek jako opłatę za zanieczyszczenie powietrza przez samochody, a także jako źródło finansowania budowy i remontów sieci dróg publicznych.
Podobnie zwrotna kaucja za szklane butelkę nadające się do recyklingu działa jak podatek od zanieczyszczeń. Stanowi ona zachętę do segregowania śmieci i ich przetwarzania, jeśli bowiem butelka zostanie wrzucona do kosza, opłaty nie będzie można odzyskać. W porównaniu z regulacjami istniejącymi w ramach systemu nakazowo-kontrolnego podatek od zanieczyszczeń zmniejsza ich emisję w bardziej elastyczny i efektywny kosztowo sposób.
### Zbywalne zezwolenia na emisję zanieczyszczeń
Kiedy państwo lub organizacja międzynarodowa wprowadza program zbywalnych zezwoleń na emisję zanieczyszczeń (ang. ) (np. pozwolenia na emisję dwutlenku węgla w krajach UE), musi zacząć od ustalenia limitu dopuszczalnej ilości zanieczyszczeń, zgodnie z normami krajowymi lub międzynarodowymi. Na przykład może ustalić, że skala emisji CO2 w ciągu roku może osiągnąć max. poziom 100 tys. ton. Każde zezwolenie umożliwia przedsiębiorstwu emisję jednej tony CO2, co oznacza, że wyemitowanych zostanie 100 tys. zezwoleń. Następnie zezwolenia na emisję ustalonej wcześniej ilości zanieczyszczeń są rozdzielane między przedsiębiorstwa albo bezpłatnie, zgodnie z przyjętym wcześniej algorytmem uzależnionym od wolumenu historycznej produkcji, albo w drodze aukcji. W tym drugim przypadku za każde zezwolenie firmy muszą zapłacić.
Pamiętajmy o trzech kwestiach. Po pierwsze, zezwolenia mają na celu zmniejszenie całkowitej emisji zanieczyszczeń w pewnym okresie. Na przykład w pierwszym roku wyemitowane zezwolenia umożliwią łączną emisję 100 tys. ton dwutlenku węgla, ale w kolejnym już tylko 90 tys. ton, a w jeszcze następnym jedynie 80 tys. ton i tak aż do pożądanego poziomu docelowego (np. w ciągu 20 lat program ma przynieść zmniejszenie emisji CO2 do zera). Po drugie, są to zezwolenia zbywalne, co oznacza, że przedsiębiorstwa mogą je kupować i sprzedawać. Po trzecie, system oparty na zbywalnych pozwoleniach działa skutecznie tylko wtedy, gdy pomijalną kwestią jest to, które przedsiębiorstwa ograniczą emisję gazu, a które kupią pozwolenia.
Dzięki takiej a nie innej konstrukcji programu zbywalnych zezwoleń emisja dwutlenku węgla nie tylko zostanie ograniczona do pożądanego poziomu, ale odbędzie się po minimalnym koszcie. Przedsiębiorstwa będą bowiem kupować i sprzedawać te zezwolenia, porównując ich cenę na rynku z kosztem ograniczenia emisji CO2 o jedną tonę. Jeśli koszt ograniczenia emisji dwutlenku węgla będzie niższy od ceny zezwolenia na rynku wtórnym, przedsiębiorstwo zdecyduje się na wdrożenie technologii bądź montaż urządzeń ograniczających emisję cieplarnianego gazu, zamiast kupować zezwolenie, lub – jeśli otrzymało od państwa pewną pulę bezpłatnie – sprzeda je na rynku wtórnym. Natomiast jeśli koszt ograniczenia emisji CO2 przekroczy cenę zezwolenia, wówczas przedsiębiorstwo kupi je od państwa w czasie pierwotnej aukcji lub od innych firm na rynku wtórnym. Problemem pozostaje natomiast pierwotna alokacja zezwoleń. Pamiętajmy, że jeśli przedsiębiorstwo ogranicza emisję dwutlenku węgla, może się to odbić na wolumenie jego produkcji i tym samym przełożyć się np. na spadek zatrudnienia. Dlatego władzom krajów tworzących organizację międzynarodową (np. UE) lub władzom lokalnym będzie zależało na tym, żeby emisję CO2 redukowały przedsiębiorstwa w innych krajach lub w innych województwach, stanach etc. Wówczas uda się zredukować efekt cieplarniany i jednocześnie ochronić miejsca pracy obywateli, którzy będą głosować na przedstawicieli władz krajowych lub regionalnych w kolejnych wyborach.
### Lepiej zdefiniowane prawa własności
Jasno zdefiniowane i alokowane prawa własności również mogą zapewnić równowagę między działalnością gospodarczą a zanieczyszczeniem środowiska. Ronald Coase (1910–2013), zdobywca Nagrody Nobla w dziedzinie ekonomii w 1991 r., w przejrzysty sposób zilustrował przykład efektu zewnętrznego: obok pola rolnika biegnie tor kolejowy. Dość często przejeżdża po nim lokomotywa, z komina której wydobywają się iskry, co w niesprzyjających warunkach wywołuje pożar tego pola. Coase zadał pytanie o to, czyim obowiązkiem jest rozwiązanie tego problemu. Czy rolnik na własny koszt powinien zbudować bariery wzdłuż pola, aby nie dopuścić do zaprószenia ognia, czy też przewoźnik winien zainstalować w kominie lokomotywy specjalne urządzenie, które zapobiegnie przypadkowemu pożarowi.
Coase zwrócił uwagę, że nie da się rozwiązać tego problemu, dopóki nie zdefiniuje się jasno praw własności (ang. ), które jednoznacznie określą, kto komu powinien wypłacić odszkodowanie, a tym samym kto jest odpowiedzialny za zmniejszenie bądź wykluczenie prawdopodobieństwa pożaru. Czy rolnik ma prawo własności do swojego pola? Tak, to oczywiste. Czy kolej ma prawo własności do torów i lokomotywy? Na tak postawione pytanie również musi paść twierdząca odpowiedź. A zatem jasno zdefiniowane prawa własności wskażą nam stronę, która wyszuka i zapłaci za najmniej kosztowną metodę zmniejszenia ryzyka pożaru pola. Prawo własności określa, czy koszt ponosi rolnik, czy kolej.
Podejście uwzględniające prawa własności jest bardzo istotne w sprawach dotyczących zagrożonych gatunków flory i fauny. Lista zagrożonych stworzeń powiększa się z roku na rok, a większość populacji roślin i zwierząt żyje na gruntach prywatnych. Ochrona tych gatunków wymaga uważnej analizy bodźców i praw własności. Odkrycie zagrożonego gatunku na gruntach prywatnych często wywołuje automatyczną reakcję rządu, który zabrania właścicielowi korzystania z ziemi w sposób mogącym zagrozić gatunkom umieszczonym na stworzonej przez państwo liście. Zastanów się nad możliwymi skutkami takiej polityki: jeśli przyznasz się rządowi, że masz na swoim terenie zagrożony gatunek, rząd skutecznie zabroni ci korzystania z twojej własności. Stąd pogłoski o posiadaczach ziemskich, którzy znalazłszy przedstawicieli zagrożonego gatunku, stosowali metodę „zastrzelić, zakopać i siedzieć cicho”. Inni celowo ścinali drzewa lub wykorzystywali grunty w sposób zniechęcający zagrożone zwierzęta do przebywania na ich terenie.
Skuteczniejszym sposobem postępowania byłoby nakłonienie prywatnych właścicieli gruntów do ochrony zagrożonych gatunków znajdujących się na ich terenie oraz zapewnienie im bezpiecznych siedlisk. Na przykład państwo mogłoby płacić odszkodowania właścicielom, którzy utrzymują odpowiednie siedliska lub ograniczą użytkowanie swojej ziemi w celu ochrony zagrożonych gatunków. Gdy państwo chce nadzorować miliony hektarów prywatnej ziemi, polityka oparta na zachętach i elastyczności ponownie okazuje się lepszym rozwiązaniem niż regulacje w systemie nakazowo-kontrolnym.
### Kluczowe pojęcia i podsumowanie
Przykładami prywatnych (zorientowanych na rynek) narzędzi ograniczania problemu negatywnych efektów zewnętrznych w dziedzinie ochrony środowiska są: opłaty za emisję zanieczyszczeń, zbywalne zezwolenia na emisję zanieczyszczeń oraz lepiej zdefiniowane prawa własności. Dzięki działaniu mechanizmu rynkowego, nakładanym przez państwo opłatom o charakterze parapodatkowym i lepiej zdefiniowanym prawom własności podmioty generujące negatywne efekty zewnętrzne muszą skonfrontować się z pełnym kosztem społecznym swoich emisji zanieczyszczeń i odpadów.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Bibliografia
Environmental Protection Agency. “2006 Pay-As-You-Throw Programs.” Accessed December 20, 2013. http://www.epa.gov/epawaste/conserve/tools/payt/states/06comm.htm. |
# Zawodność rynku – państwo a biznes
## Dlaczego sektor prywatny nie inwestuje dostatecznych środków w innowacje
Konkurencja rynkowa tworzy bodźce do wdrażania nowych technologii, ponieważ przedsiębiorstwo (ang. ) może osiągać wyższe zyski, znajdując sposób na obniżenie kosztów produkcji lub oferowanie klientom dóbr o pożądanych przez nich cechach. Jak powiedział Gregory Lee, dyrektor generalny firmy Samsung: „Nieustanne dążenie do innowacji jest kluczową zasadą naszej działalności i pozwala konsumentom odkrywać świat nowych możliwości dzięki rozwojowi technologii”. Innowacyjne przedsiębiorstwo wie, że dzięki opracowaniu nowej technologii będzie miało, co do zasady, tymczasową przewagę nad konkurentami, a tym samym zdolność do osiągania zysków nadzwyczajnych, zanim ci uzyskają dostęp do nowych rozwiązań.
Jednak w niektórych przypadkach istnienie konkurencyjnych firm działających w tej samej branży może zniechęcać do rozwijania nowych technologii, zwłaszcza wtedy, gdy inne przedsiębiorstwa mogą szybko skopiować nowe pomysły. Przeanalizujmy sytuację koncernu farmaceutycznego, które decyduje się na opracowanie nowego specyfiku. Odkrycie leczniczego działania konkretnej substancji chemicznej, wykonanie niezbędnych testów klinicznych i wreszcie wprowadzenie produktu na rynek kosztuje średnio 800 mln dol. i trwa ponad dekadę. Jeśli projekt badawczo-rozwojowy (B+R) zakończy się niepowodzeniem – a każdy projekt z obszaru B+R ma na to sporą szansę – wówczas przedsiębiorstwo poniesie stratę i może zostać zmuszone do znacznego ograniczenia działalności lub nawet zbankrutować. Z kolei gdy projekt się powiedzie, konkurenci mogą znaleźć sposób na skopiowanie nowego pomysłu, ale bez konieczności finansowania kosztownych działań związanych z jego opracowywaniem. W efekcie innowacyjne przedsiębiorstwo będzie miało znacznie wyższe koszty związane z pracami B+R i w najlepszym przypadku osiągnie niewielką, przejściową przewagę nad konkurentami.
Liczne badania prowadzone przez ekonomistów w wielu krajach i w różnych okresach wykazały, że firma wdrażająca nową technologię jako pierwsza (możemy ją nazwać pionierem) przechwytuje od jednej trzeciej do połowy łącznych korzyści ekonomicznych związanych z daną innowacją, podczas gdy resztę uzyskują inne przedsiębiorstwa, które zdecydują się ją wdrożyć (naśladowcy), i użytkownicy nowych wynalazków.
### Pozytywne efekty zewnętrzne nowych technologii
Czy prywatne przedsiębiorstwa działające w ramach gospodarki rynkowej inwestują zbyt mało środków w badania i nowe technologie? Jeśli firma buduje nową fabrykę lub kupuje wyposażenie (środki transportu, maszyny, urządzenia itd.), uzyskuje wszystkie korzyści ekonomiczne wynikające z tych inwestycji. Jednak gdy firma przeznacza środki na badania nad nowymi technologiami, prywatne korzyści (ang. ), czyli jej przyszłe zyski, stanowią tylko część ogólnych korzyści społecznych związanych z tą aktywnością. Korzyści społeczne (ang. ) innowacji są równe sumie wartości wszystkich pozytywnych efektów zewnętrznych związanych z nową technologią lub produktem, na których mogą skorzystać inne przedsiębiorstwa lub społeczeństwo jako całość, oraz wartości prywatnych korzyści otrzymywanych przez przedsiębiorstwo, które opracowało nową technologię, dobro lub usługę. Pozytywne efekty zewnętrzne (ang. ) są korzystnymi efektami ubocznymi działalności konkretnego podmiotu (osoby, przedsiębiorstwa, organizacji non-profit lub państwa) uzyskiwanymi bezpłatnie przez strony trzecie. Jeśli udało ci się wygospodarować czas i posprzątać pokój w akademiku poza kolejnością, to oczywiście masz w związku z tym pewną korzyść (przebywasz w czystym wnętrzu), ale jednocześnie skutkiem ubocznym twojej aktywności jest uporządkowana przestrzeń twoich współlokatorów.
Rozważmy sytuację przedsiębiorstwa, które opracowuje swój przyszłoroczny budżet wydatków na sferę B+R. Ekonomiści i naukowcy pracujący dla tej firmy sporządzili listę potencjalnych projektów badawczo-rozwojowych i wiążących się z nimi szacunkowych stóp zwrotu (Stopa zwrotu (ang. ) jest oczekiwanym zyskiem z wdrożeniem projektu). Stosowne kalkulacje pokazuje . Opadająca w dół prywatna krzywa popytu (Dpryw) reprezentuje zapotrzebowanie firmy na kapitał finansowy i odzwierciedla gotowość przedsiębiorstwa do zaciągania pożyczek na finansowanie projektów badawczo-rozwojowych przy różnym poziomie rynkowych stóp procentowych. Załóżmy również, że efekty prac badawczo-rozwojowych planowanych przez to przedsiębiorstwo tworzą dodatkowe korzyści dla innych firm i gospodarstw domowych. W końcu wdrożone już innowacje dość często zachęcają inne podmioty do podejmowania kolejnych kreatywnych działań cennych dla społeczeństwa. Jeśli dodamy dodatkowe korzyści uzyskiwane przez społeczeństwo do prywatnego popytu firmy na kapitał finansowy, możemy narysować społeczną krzywą popytu na kapitał (Dspoł), która znajduje się nad prywatną krzywą popytu (Dpryw).
Gdyby przedsiębiorstwo mogło w pełni przejąć korzyści społeczne, czyniąc je w jakiś sposób niedostępnymi dla pozostałych podmiotów, prywatna krzywa popytu pokrywałaby się ze społeczną. Taka sytuacja występuje jednak stosunkowo rzadko. Zgodnie z i , jeśli aktualne oprocentowanie kredytu, który może zaciągnąć analizowane przedsiębiorstwo, wynosi 8%, a firma może uzyskiwać tylko prywatne korzyści z innowacji (nie jest w stanie przechwycić korzyści społecznych), to pożyczony przez nią kapitał finansowy przeznaczony na wydatki ze sfery B+R wyniesie 30 mln zł (punkt E0). To, że przedsiębiorstwo nie może przechwycić korzyści społecznych, nie oznacza oczywiście, że przestają one istnieć. W konsekwencji przy tej samej rynkowej stopie procentowej (8%) optymalna – ze społecznego punktu widzenia – wartość inwestycji w prace badawczo-rozwojowe, wynosi 52 mln zł (punkt E1). Przedsiębiorstwa prywatne rzadko jednak biorą pod uwagę społeczne korzyści związane ze swoją działalnością (ponieważ nie przekładają się one bezpośrednio na dochody właścicieli tych firm), co w konsekwencji prowadzi do sytuacji, w której przedsiębiorstwo przeznaczy na sferę B+R mniej, niż wynosi społecznie optymalny poziom, czyli mniej niż 52 mln zł.
Prywatny popyt przedsiębiorstwa na kapitał finansowy (krzywa Dpryw) odzwierciedla zyski osiągane przez przedsiębiorstwo. Jednak inne koncerny farmaceutyczne i inne podmioty z sektora ochrony zdrowia mogą skopiować nowe sposoby leczenia niektórych schorzeń oraz opracować konkurencyjne produkty. Korzyść społeczna związana z powstanie nowego leku lub całej kuracji uwzględnia wartość wszystkich pozytywnych efektów zewnętrznych danej innowacji. Jeśli przedsiębiorstwo byłoby w stanie przejąć dodatkowe korzyści społeczne dla siebie i nie dopuścić do nich innych firm, krzywa popytu przedsiębiorstwa na kapitał finansowy przesunęłaby się do położenia Dspoł. W efekcie przedsiębiorstwo chciałoby pożyczyć i zainwestować 52 mln zł. Jeśli jednak przedsiębiorstwo otrzymuje tylko 50 groszy z każdego złotego korzyści społecznych, nie wyda dostatecznie dużej sumy na tworzenie nowych technologii, zaś kwota inwestycji w sferę B+R będzie większa niż 30 mln, ale mniejsza niż 52 mln zł.
### Dlaczego warto inwestować w kapitał ludzki?
Działalność inwestycyjna, niezależnie od tego, czy pieniądze wydatkowane są na wybudowanie nowej fabryki, zakup samolotów czy opracowanie nowego leku na raka, wiąże się z akceptacją mniejszego lub większego ryzyka. Wydatkując środki, przedsiębiorstwo nie ma przecież żadnej pewności, że korzyści związane z przeznaczonymi na projekt nakładami zmaterializują się w zakładanej wysokości, ani nawet czy w ogóle jakiekolwiek korzyści związane z konkretną inwestycją się pojawią. (Niektóre zakłady przemysłowe umieszczają obok budynków fabrycznych „cmentarzyska idei”, czyli symboliczne miejsca spoczynku pomysłów, które na etapie inwestycji wydawały się fantastyczne, ale nie przyniosły spodziewanych albo wręcz żadnych korzyści). Podobnie jest z inwestycjami w edukację, czyli w kapitał ludzki. Młode osoby wraz ze swoimi rodzinami przez wiele lat inwestują znaczne ilości czasu i pieniędzy w edukację. Wynika to z faktu, że podzielają one dość powszechne w społeczeństwie przekonanie, że wyższy poziom wykształcenia przyczynia się do zwiększenia przyszłej produktywności i w efekcie pozwala osiągać wyższe zarobki. Czy ta inwestycja w edukację naprawdę się opłaca?
Ekonomiści niemal powszechnie twierdzą, że odpowiedź na powyższe pytanie brzmi „tak”. W rozdziale drugim podręcznika, poświęconym wyborom w świecie ograniczonych zasobów), znajdują się dane ilustrujące rosnącą średnią kwotę wynagrodzenia dla różnych poziomów wykształcenia w Polsce. Stopy zwrotu z inwestycji w edukację w Polsce, podobnie jak w krajach UE i Stanach Zjednoczonych, z pewnością są dodatnie. Co więcej, są one uzyskiwane głównie przez pracowników, więc są prywatnymi stopami zwrotu (ang. ) z edukacji.
Co zyskuje społeczeństwo dzięki inwestycjom w edukację dokonywanym przez konkretną osobę? W końcu jeśli rząd wydaje pieniądze podatników na subsydiowanie publicznego szkolnictwa, społeczeństwo powinno oczekiwać jakiegoś zwrotu z tych wydatków. Ekonomiści, np. George Psacharopoulos, odkryli, że w wielu krajach społeczna stopa zwrotu (ang. ) z nauki jest dodatnia. W końcu inwestycje w edukację wiążą się z pozytywnymi efektami zewnętrznymi. Chociaż nie zawsze jest to łatwe do zmierzenia, zdaniem Waltera McMahona pozytywne efekty zewnętrzne edukacji zazwyczaj obejmują lepszy stan zdrowia ludności, niższy poziom przestępczości, czystsze środowisko i bardziej stabilne, demokratyczne rządy. Z uwagi na te właśnie uwarunkowania wiele krajów zdecydowało się wykorzystać pieniądze podatników do subsydiowania szkolnictwa podstawowego, średniego i wyższego. Edukacja w jednoznaczny sposób przynosi korzyści osobie, która decyduje się jak najdłużej kontynuować naukę. Jednak społeczeństwo, w którym większość ludzi jest dobrze wykształcona, także na tym korzysta, z uwagi na wskazane powyżej pozytywne efekty zewnętrzne.
### Inne przykłady pozytywnych efektów zewnętrznych
Chociaż technologia może być najbardziej widocznym przykładem pozytywnego efektu zewnętrznego, nie jest jedynym. Na przykład szczepienia (zarówno te obowiązkowe, z kalendarza dla dzieci, jak i dobrowolne, np. przeciwko koronawirusowi) chronią nie tylko osobę, która przyjęła szczepionkę, ale mają pozytywny efekt uboczny w postaci ochrony innych osób (np. tych, które z uwagi na przeciwwskazania medyczne nie mogą się zaszczepić), korzystających z tzw. odporności populacyjnej. Modernizacja i renowacja (czasami wystarczy po prostu odmalowanie elewacji bądź troska o ogród) kilku domów w sąsiedztwie nie tylko zwiększa wartość tych konkretnych nieruchomości, ale korzystnie wpływa na ceny wszystkich domów w okolicy.
W przypadku nowych technologii właściwą reakcją państwa jest wdrażanie takiej polityki w obszarze badań i rozwoju, aby przedsiębiorstwa, które generują pozytywne efekty zewnętrzne, mogły przejąć jak największą część korzyści społecznych. W przypadku szczepionek, np. przeciwko grypie, skuteczną polityką może być zapewnienie subsydiowania (lub wręcz pełnego finansowania) tym osobom, które zdecydują się na szczepienie.
przedstawia rynek szczepionek przeciwko grypie. Rynkowa krzywa popytu (Drynk) odzwierciedla jedynie prywatne korzyści krańcowe (ang. , MPB), które zaszczepione osoby uzyskują dzięki szczepionkom (wśród tych korzyści można wskazać przede wszystkim znacznie mniejsze prawdopodobieństwo zachorowania na grypę, a w przypadku choroby jej łagodniejszy przebieg, co oznacza, że zaszczepiona osoba krócej, o ile w ogóle, będzie przebywać na zwolnieniu lekarskim i nie utraci dochodów związanych z wypłatą niepełnego wynagrodzenia). Zakładając, że produkcja szczepionek nie generuje żadnych kosztów ubocznych, rynkowa krzywa podaży jest określona przez krańcowy koszt prywatny (ang. lub , MPC).
Liczba dawek szczepionki przeciw grypie, która stałaby się przedmiotem transakcji rynkowych, jest wyznaczona przez przecięcie MPB i MPC, czyli w punkcie, w którym popyt zrównuje się z podażą. W konsekwencji liczba szczepionek zapewniająca równowagę rynkową kształtuje się na poziomie Qrynk, a rynkowa cena szczepionki wynosi Prynk. Zwróć uwagę, że każdy z potencjalnych klientów porównuje swoją korzyść krańcową z ceną szczepionki i dla części z nich (np. tych, którzy mają relatywnie niską płacę) korzyści z przyjęcia szczepienia są mniejsze niż cena, którą musieliby za nie zapłacić. Jednak tak jak to już wskazaliśmy powyżej, decyzja każdej z osób, które przyjmują szczepionkę, generuje pozytywne efekty zewnętrzne dla całej populacji, zmniejszając prawdopodobieństwo transmisji choroby. Kiedy do prywatnych korzyści krańcowych dodamy te związane z pozytywnymi efektami zewnętrznymi, otrzymamy krańcową korzyść społeczną (ang. , MSB) szczepionek przeciw grypie, reprezentowaną przez krzywą Dspoł. Ponieważ krańcowa korzyść społeczna (MSB) jest większa niż prywatna korzyść krańcowa (MPB), optymalna – ze społecznego punktu widzenia – liczba szczepionek, które powinny zostać zakupione, jest większa niż ta wynikająca z rynkowych krzywych popytu i podaży (Qspoł > Qrynk), co oczywiście oznacza, że ich cena również wzrośnie i będzie równa Pspoł. Niestety większość z nas podejmując decyzję o szczepieniu, nie bierze pod uwagę pozytywnych efektów zewnętrznych, tak więc wielkość produkcji i konsumpcji szczepionek przeciw grypie będzie zbyt mała ze społecznego punktu widzenia.
Jak państwo może zwiększyć produkcję i konsumpcję szczepień do poziomu optymalnego z punku widzenia interesów całego społeczeństwa? Jednym ze sposobów jest zapewnienie subsydium (np. w postaci bonów) każdemu obywatelowi, który chce się zaszczepić. Taki bon działałby jak dodatkowy „dochód”, który można wykorzystać tylko do zakupu szczepionki przeciw grypie. Jeśli wartość bonu byłaby równa dodatkowej korzyści społecznej ze szczepionki, produkcja w równowadze rynkowej zwiększyłaby się do poziomu Qspoł, a cena do poziomu Pspoł, czyli do punktu zrównania się MSB z MSC. Producenci szczepionek na grypę otrzymywaliby cenę Pspoł za szczepionkę, a konsumenci mogliby zrealizować bon i płaciliby tylko cenę Psubs. Przy takiej polityce subsydiowania przez państwo liczba szczepień przeciw grypie byłaby optymalna ze społecznego punktu widzenia.
### Kluczowe pojęcia i podsumowanie
Konkurencja rynkowa zachęca do wdrażania innowacji. Jeśli jednak nowe technologie można łatwo kopiować, pierwotny innowator traci motywację do dalszego inwestowania w badania i rozwój (B+R). Nowe technologie często wywołują pozytywne efekty zewnętrzne, co oznacza, że opracowanie nowej technologii przynosi korzyści także innym przedsiębiorstwom i całemu społeczeństwu. Społeczna korzyść wynikająca z innowacji, uwzględniająca efekty zewnętrzne, przewyższa zazwyczaj prywatną korzyść dla podmiotu, który stworzył i wdrożył nową technologię. Gdyby innowatorzy mogli przejąć większą część korzyści społecznych, mieliby większą motywację do inwestowania w sferę B+R.
### Pytania Self-Check
### Pytania Review
### Pytanie Critical Thinking
### Bibliografia
Arias, Omar and Walter W. McMahon. “Dynamic Rates of Return to Education in the U.S.” Economics of Education Review. 20, 2001. 121–138.
Biography.com. 2015. “Alan Turing.” Accessed April 1, 2015. http://www.biography.com/people/alan-turing-9512017.
Canty Media. 2015. “The World: Life Expectancy (2015) – Top 100+.” Accessed April 1, 2015. http://www.geoba.se/population.php?pc=world&type=15.
Hyclak, Thomas, Geraint Johnes, and Robert Thornton. Fundamentals of Labor Economics. Boston: Houghton Mifflin Company, 2005.
McMahon, Walter. Education and Development: Measuring the Social Benefits. Oxford: Oxford University Press, 2000.
National Institute of Health. 2015. “Global Competitiveness – The Importance of U.S. Leadership in Science and Innovation for the Future of Our Economy and Our Health.” Accessed April 1, 2015. http://www.nih.gov/about/impact/impact_global.pdf.
National Science Foundation. 2013. “U.S. R&D Spending Resumes Growth in 2010 and 2011 but Still Lags Behind the Pace of Expansion of the National Economy.” Accessed April 1, 2015. http://www.nsf.gov/statistics/infbrief/nsf13313/.
Psacharopoulos, George. “Returns to Investment in Education: A Global Update.” World Development 22, 1994. 1325–1343.
Salientes-Narisma, Corrie. “Samsung Shift to Innovative Devices Pay Off.” Inquirer Technology. Accessed May 15, 2013. http://technology.inquirer.net/23831/samsungs-shift-to-innovative-devices-pays-off. |
# Zawodność rynku – państwo a biznes
## Dobra publiczne
Chociaż nowe technologie tworzą pozytywne efekty zewnętrzne, dzięki którym nawet połowa korzyści społecznych związanych z powstającymi wynalazkami przenosi się na podmioty inne niż ich twórcy, wynalazcy i przedsiębiorcy zamieniający je w możliwe do sprzedaży dobra lub usługi nadal otrzymują pewien zwrot z swoich inwestycji. Może się jednak zdarzyć i tak, że pozytywne efekty zewnętrzne związane z konkretnym produktem są tak rozległe, że prywatne przedsiębiorstwa nie mogą oczekiwać przejęcia na wyłączność jakichkolwiek korzyści społecznych. Takie dobra lub usługi nazywamy dobrami publicznymi (ang. ). Najczęściej przywoływanym w podręcznikach przykładem dobra publicznego są wydatki na obronę narodową. Jednak podobnymi cechami charakteryzować się będzie również latarnia morska i pokaz fajerwerków organizowany przez lokalne władze z okazji dni miasta. Zacznijmy od zdefiniowania cech dobra publicznego i omówienia, dlaczego te własności utrudniają lub wręcz uniemożliwiają prywatnym firmom dostarczanie dóbr publicznych. W kolejnym kroku zaś wyjaśnimy, jak państwo może rozwiązać ten problem.
### Definicja dobra publicznego
Ekonomiści mają ściśle określoną definicję dobra publicznego i – co warto podkreślić szczególnie mocno – nie wszystkie dobra i usługi finansowane ze środków publicznych spełniają tę definicję. Aby zrozumieć cechy dobra publicznego, najpierw rozważmy zwykłe dobro prywatne, takie jak kawałek pizzy. Kawałek pizzy charakteryzuje się tym, że może go zjeść tylko jedna osoba. Jeśli zje go Lucyna, nie może tego zrobić Ludwik. I na odwrót. Oczywiście mogą się tym kawałkiem pizzy podzielić, ale jeśli konkretny kęs zostanie połknięty przez Ludwika, Lucyna nie będzie go już w stanie włożyć do ust. Dodatkowo, kawałek pizzy to produkt łatwy do zidentyfikowania i wyodrębnienia. Kupując kawałek pizzy, łatwo stwierdzić, co w istocie nabywamy i nikt, kto nie zapłaci za pizzę, nie może wejść w jej posiadanie (chyba że dostanie ją od innej osoby, ale ona przecież wcześniej musiała za placek zapłacić).
Dobra publiczne natomiast charakteryzują się dwiema cechami, które sprawiają, że ich konsumpcja ma charakter całkowicie odmienny od zjedzenia kawałka pizzy. Ekonomiści mówią, że w kontekście dóbr publicznych nie ma możliwości wykluczenia kogokolwiek z ich konsumpcji, zaś sama konsumpcja ma nierywalizacyjny charakter. Brak możliwości wykluczenia z konsumpcji (ang. ), oznacza, że nie da się (lub jest to tak kosztowne, że aż nieracjonalne) zabronić komukolwiek korzystania z danego dobra lub usługi. Jeśli Ludwik kupi dobro prywatne, takie jak ostatni kawałek pizzy w uczelnianej stołówce, może wykluczyć innych, np. Lucynę, z jedzenia tej pizzy. Po prostu zje ten konkretny kawałek. Jeżeli jednak państwo zapewnia obronę narodową, to obejmuje ona wszystkich. Nawet jeśli zdecydowanie nie zgadzasz się z polityką obronną swojego kraju lub z wielkością wydatków na obronę, siły zbrojne twojej ojczyzny nadal cię chronią. Nie możesz w żaden sposób zrezygnować z tej ochrony, a armia i flota nie mogą chronić wszystkich innych obywateli, poza tobą.
Drugą cechą dobra publicznego jest nierywalizacyjny charakter konsumpcji (ang. ). Oznacza to, że gdy jedna osoba korzysta z dobra publicznego, inne również mogą z niego korzystać i nie ma to żadnego negatywnego wpływu na użyteczność któregokolwiek z konsumentów. W przypadku dobra prywatnego, np. pizzy, tak nie jest. Jeśli Ludwik zje pizzę, Lucyna zjeść jej nie może, czyli te dwie osoby są rywalami w konsumpcji. W przypadku dobra publicznego, np. obrony narodowej, konsumpcja obrony narodowej przez Ludwika nie zmniejsza ilości dobra pozostawionej Lucynie, więc w kontekście tego dobra publicznego rywalizacja się nie pojawia.
Warto zwrócić uwagę, że istnieją dobra charakteryzujące się tylko jedną cechą dobra publicznego. Ekonomiści nazywają je mieszanymi dobrami publicznymi. Pomyśl o płatnych kanałach telewizyjnych. Przecież charakteryzują się one nierywalizacyjną konsumpcją. Jeśli Ludwik ogląda mecz lub odcinek serialu na takim kanale, bez żadnego uszczerbku może to zrobić również Lucyna. Niemniej w wypadku płatnego kanału telewizyjnego istnieje stosunkowo łatwy sposób wykluczenia potencjalnych użytkowników z ich konsumpcji. Tylko ci, którzy opłacili abonament, mogą się cieszyć filmami i relacjami sportowymi. Z drugiej strony istnieją też dobra, których konsumpcja ma charakter rywalizacyjny, ale nie ma możliwości technicznych pozwalających kogokolwiek z ich konsumpcji wykluczyć. Pomyśl o usługach oferowanych przez straż pożarną. Jeśli w mieście wybuchnie więcej niż jeden pożar, strażacy nie będą mogli od razu pojawić się przy każdym. Będą musieli wybrać, który zaczną gasić jako pierwszy. Nie ma natomiast możliwości, aby nie gasić pożaru w mieszkaniu kogoś, kto nie uiścił opłaty za usługi strażaków. Przecież ogień natychmiast przeniósłby się na mieszkania tych właścicieli, którzy stosowny abonament sobie wykupili. Aby temu zapobiec, strażacy będą gasili każdy pożar.
Specyficzne cechy dóbr publicznych oznaczają, że większość z nich musi być dostarczana (lub przynajmniej finansowana) przez państwo. Tak jak to już zostało wskazane powyżej, usługi oferowane przez straż pożarną i policję muszą być finansowane przez państwo (władze lokalne), gdyż nie ma możliwości, aby niektórzy ludzie w sąsiedztwie mieli ochronę przed pożarami i włamaniami do ich domów, podczas gdy inni nie byliby chronieni w ogóle. Ochrona niektórych osób oznacza również ochronę innych.
Pozytywne efekty zewnętrzne i dobra publiczne to pojęcia ściśle powiązane. Dobra finansowane przez państwo, takie jak ochrona policyjna lub szczepienia, wywołują pozytywne efekty zewnętrzne. Jednak nie wszystkie dobra i usługi, które generują silne efekty zewnętrzne, są dobrami publicznymi. Zarówno edukacja, jak i ochrona zdrowia to dobra prywatne, w ich kontekście – co w Polsce szczególnie łatwo zrozumieć – występuje zarówno konsumpcja rywalizacyjna, jak i łatwość wykluczenia z konsumpcji tych, którzy za dane dobro lub usługę nie zapłacą (dzięki temu działają prywatne szkoły podstawowe i uczelnie wyższe). Niemniej w ich wypadku pozytywne efekty zewnętrze są tak silne, że społeczeństwo decyduje się na ich finansowanie ze środków publicznych. Prywatne firmy mogą inwestować w nowe wynalazki, takie jak iPhone firmy Apple, i czerpać z nich zyski, jakkolwiek w dalszym ciągu ich powstanie będzie generować korzyści społeczne (w końcu wymyślenie przez Apple smartfona umożliwiło jego produkcję innym firmom technologicznym, co zwiększyło dostępność tego urządzenia). Patenty są próbą przekształcenia nowych wynalazków w dobra prywatne, z konsumpcją o charakterze rywalizacyjnym i możliwością wykluczenia z korzystania z tych dóbr. Dzięki temu w czasie ochrony patentowej nikt, poza wynalazcą, nie będzie mógł czerpać korzyści z ich produkcji i sprzedaży.
### Problem gapowicza w przypadku dóbr publicznych
Prywatnym firmom trudno jest wytwarzać dobra publiczne i zarabiać na ich sprzedaży. Jeśli w przypadku danego dobra lub usługi nie ma możliwości wykluczenia kogokolwiek z jego konsumpcji (lub generuje to gigantyczne koszty), jak np. w przypadku obrony narodowej, to w jaki sposób przedsiębiorstwo może obciążyć ludzi opłatą za dostarczony produkt?
Kiedy ludzie podejmują decyzje o zakupie dobra publicznego, może pojawić się problem gapowicza (ang. ). Potencjalni konsumenci mają bowiem silną motywację, aby pozwolić innym płacić za dobro publiczne, a następnie korzystać z tego dobra „na gapę”, czyli nie wnosząc za nie stosownej opłaty (tak jak gapowicze nie płacą za korzystanie z komunikacji miejskiej, która jest w części lub w całości finansowana wpływami z biletów). Problem gapowicza możemy wyrazić w kategoriach gry w „dylemat więźnia”, którą omawialiśmy w .
Należy jednak zwrócić uwagę, że strategie graczy w przypadku płacenia za dobra publiczne będą nieco inne niż podejście uczestników kartelu. Zobacz poniższą .
### Rola państwa w finansowaniu dóbr publicznych
Kluczowym elementem w zapewnieniu finansowaniu dóbr publicznych jest znalezienie sposobu na wymuszenie wniesienia opłaty przez wszystkich beneficjentów, co zapobiegnie pojawieniu się problemu gapowicza. Jednym z takich sposobów może być finansowanie dóbr publicznych poprzez system podatkowy. Opłacanie podatków ma charakter przymusowy, w związku z czym – jeśli społeczeństwo zdecyduje się na finansowanie jakiegoś dobra publicznego z podatków – może wyeliminować problem gapowicza, nakładając na wszystkich swoich członków prawny obowiązek wnoszenia opłat.
Jednak podatki i wymuszane przez państwo składki nie są jedynym sposobem finansowania dóbr publicznych. W niektórych przypadkach wytwarzanie dobra publicznego może odbywać się dzięki mechanizmowi rynkowemu. Pomyśl na przykład o programie radiowym lub telewizyjnym. Jest to dobro, z konsumpcji którego nie da się nikogo wykluczyć, ponieważ gdy sygnał jest nadawany, każdy posiadacz radia czy telewizora (lub też ich technologicznych ekwiwalentów, np. telefonu komórkowego lub komputera) może go odebrać. Konsumpcja programu radiowego i telewizyjnego ma również nierywalizacyjny charakter, ponieważ słuchacze nie przeszkadzają sobie wzajemnie w odbiorze konkretnych audycji. Ze względu na te cechy praktycznie niemożliwe jest bezpośrednie obciążenie konsumentów opłatami za słuchanie i oglądanie konwencjonalnych programów radiowych i telewizyjnych. Niemniej takie stacje i audycje wciąż istnieją.
Radio i telewizja znalazły inny sposób na uzyskiwanie przychodów. Dzieje się to poprzez sprzedaż reklam, co jest pośrednim obciążaniem opłatą słuchaczy i widzów, w postaci zabierania im czasu. Ostatecznie konsumenci, którzy kupują reklamowane towary, płacą również za programy radiowe i telewizyjne, ponieważ przedsiębiorstwa wytwarzające reklamowane produkty wliczają opłaty za emisję reklam w koszty produkcji. Oczywiście w dalszym ciągu niektóre stacje telewizyjne, takie jak działające w Polsce Canal+ i HBO, pobierają regularną opłatę abonamentową za emisję programu bez reklam.
Innym sposobem prywatnego finansowania dóbr publicznych jest działalność podmiotów, które korzystają na pojawieniu się konkretnego dobra lub usługi w tak istotny sposób, że opłaca się im je sfinansować, dzięki czemu inni potencjalni użytkownicy nie będą musieli wnosić żadnej opłaty. Rozważmy przykład dużego armatora, którego statki przepływają przez szczególnie niebezpieczny akwen, w związku z czym ponosi on wysokie koszty ubezpieczenia jego floty. Jeśli wybudowanie i opłacanie funkcjonowania radiolatarni na tym akwenie poprawi bezpieczeństwo w znaczący sposób, koszt ubezpieczenia zmniejszy się o wartość większą niż wydatki poniesione na budowę i eksploatację latarni morskiej, Armator zapewne zainwestuje środki w poprawę bezpieczeństwa, bo mu się to opłaci. Wszyscy inni użytkownicy tego akwenu będą natomiast cieszyć się poprawą bezpieczeństwa całkowicie za darmo.
Niektóre dobra publiczne mają częściowo charakter świadczenia oferowanego bez konieczności wniesienia opłaty za użytkowanie, a częściowo wymagają uiszczenia takiej opłaty. Przykładem niech będzie publiczny park miejski, z którego można korzystać bezpłatnie, ale państwo (władze lokalne) pobiera opłatę za parkowanie samochodu, rezerwację niektórych terenów piknikowych lub możliwość sprzedaży żywności i napojów na przenośnym stoisku.
W innych przypadkach można użyć nacisków społecznych i osobistych apeli, a nie siły prawa, aby zmniejszyć liczbę gapowiczów i zebrać środki na sfinansowanie dobra publicznego. Na przykład sąsiedzi czasami tworzą stowarzyszenia, aby realizować projekty upiększające okolicę lub patrolować teren po zmroku w celu zmniejszenia przestępczości. W krajach o niskich dochodach, gdzie presja społeczna silnie zachęca osoby utrzymujące się z pracy na roli do udziału we wspólnych inicjatywach, okoliczni rolnicy mogą razem pracować nad dużym projektem nawadniania terenu, na czym zyskują wszyscy. Możemy postrzegać wiele działań związanych ze zbieraniem funduszy, w tym zbiórkę pieniędzy na lokalne organizacje charytatywne oraz na szkoły i uniwersytety, jako próbę wykorzystania presji społecznej do ograniczenia efektu gapowicza i uzyskania rezultatu, który przyniesie korzyści ogółowi.
### Wspólne zasoby i „tragedia wspólnego pastwiska”
Tak jak to już zaznaczyliśmy wcześniej, poza czystymi dobrami publicznymi (miejski park) i dobrami prywatnymi (kawałek pizzy) możemy również mówić o mieszanych dobrach publicznych. Charakteryzują się one rywalizacyjnym charakterem konsumpcji, ale nie istnieją sposoby pozwalające wykluczyć kogokolwiek z konsumpcji takiego dobra, jeśli jest ona w jego kontekście w ogóle dopuszczalna. Przykładem niech będą ławice ryb (np. dorsza) na atlantyckich wodach międzynarodowych. Ponieważ każdy trawler rybacki ma prawo poławiać dorsza na wodach międzynarodowych, rybę tę możemy traktować jako dobro, z konsumpcji którego nikogo nie da się wykluczyć. Jednocześnie połowy mają charakter rywalizacyjny. Każda ryba wyłowiona np. przez statek portugalski nie zostanie złapana przez rybaków z Francji lub Kanady.
Dobra charakteryzujące się rywalizacyjną konsumpcją i brakiem efektywnych sposobów wykluczania z niej ekonomiści nazywają wspólnymi zasobami lub dobrami wspólnej puli (ang. ). Ponieważ wody międzynarodowe na Oceanie Atlantyckim są dostępne dla wszystkich rybaków, a każdy złowiony dorsz nie może być jednocześnie pozyskany przez kogoś innego, mają oni skłonność do nadmiernego wykorzystywania wspólnych zasobów, takich jak populacja tej smakowitej ryby.
Problem nadmiernego wykorzystywania wspólnych zasobów nie jest nowy. Ekolog Garret Hardin w artykule z 1968 r. opublikowanym w czasopiśmie Science nazwał go „tragedią wspólnego pastwiska” (ang. Tragedy of the Commons). Ekonomiści postrzegają to jako problem praw własności. Ponieważ nikt nie jest właścicielem oceanu ani ryb, które przemieszczają się swobodnie w jego wodach, nikt nie ma motywacji, aby chronić te zasoby i odpowiedzialnie je pozyskiwać. W celu rozwiązania problemu nadmiernych połowów morskich ekonomiści zazwyczaj opowiadają się za prostymi metodami, takimi jak licencje, limity połowów i skracanie ich sezonów. Kiedy populacja jakiegoś gatunku spada do krytycznie małych rozmiarów, rządy nawet zakazują połowów, dopóki biolodzy nie stwierdzą, że powróciła ona do poziomu gwarantującego przeżywalność.
### Kluczowe pojęcia i podsumowanie
Dobro publiczne ma dwie kluczowe cechy: jego konsumpcja ma charakter nierywalizacyjny, a ponadto nikogo nie da się z niej wykluczyć, jako że jest to fizycznie niemożliwe lub tak kosztowne, że nieopłacalne (taniej jest pozwolić wszystkim chętnym na konsumpcję, niż tworzyć mechanizmy ograniczające dostęp dla tych, którzy nie wniosą opłaty). Natomiast nierywalizacyjny charakter konsumpcji oznacza, że gdy jedna osoba korzysta z danego dobra, nie ogranicza to jego użyteczności dla innych konsumentów. Rynki prywatne zazwyczaj nie dostarczają dóbr publicznych, ponieważ gapowicze będą próbowali konsumować dobro publiczne bez wnoszenia stosownej opłaty. Problem gapowicza można przezwyciężyć, wymuszając na wszystkich konsumentach zapłatę za użytkowanie dobra, np. poprzez przymus podatkowy wprowadzany przez państwo lub presję społeczną ze strony sąsiadów lub innej grupy odniesienia (koledzy z pracy, rodzina, znajomi). W pewnych sytuacjach również prywatne przedsiębiorstwa mogą dostarczać dobra publiczne (ogólnodostępne audycje telewizyjne i radiowe), tworząc alternatywne sposoby płacenia za wytwarzane dobra.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Zadania
### Bibliografia
Cowen, Tyler. Average Is Over: Powering America Beyond the Age of the Great Stagnation. Dutton Adult, 2013.
Hardin, Garret. “The Tragedy of the Commons.” Science 162 (3859): 1243–48 (1968). |
# Zawodność rynku – państwo a biznes
## Fuzje przedsiębiorstw
W poprzednich rozdziałach dotyczących teorii przedsiębiorstwa doszliśmy do trzech ważnych wniosków. Po pierwsze – konkurencja zapewniająca konsumentom niższe ceny i szeroką gamę innowacyjnych produktów jest korzystna dla konsumentów i społeczeństwa. Po drugie – produkcja na dużą skalę może znacznie obniżyć koszty przeciętne. I wreszcie po trzecie – rynki w świecie rzeczywistym rzadko są doskonale konkurencyjne. W rezultacie politycy gospodarczy muszą określić, jak bardzo należy interweniować, aby zrównoważyć potencjalne korzyści wynikające z dużej skali produkcji z potencjalną utratą konkurencji, która może wystąpić przy zwiększaniu się rozmiarów przedsiębiorstw, zwłaszcza poprzez fuzje.
Fuzja (ang. ) przedsiębiorstw ma miejsce wtedy, gdy dwa dotychczas odrębne podmioty łączą się w jeden. Kiedy jedna firma kupuje inną, jest to przejęcie (ang. ). Przejęcie nie zawsze prowadzi do likwidacji wykupionego podmiotu – przejęte przedsiębiorstwo może kontynuować działalność pod dotychczasową nazwą. Zarówno fuzje, jak i przejęcia skutkują tym, że dwa, dotychczas odrębne przedsiębiorstwa uzyskują tych samych właścicieli, a zatem fuzje i przejęcia najczęściej analizuje się łącznie.
Wyspecjalizowane urzędy działające na poziomie państw narodowych (w Polsce funkcję tę pełni Urząd Ochrony Konkurencji i Konsumentów) i organizacji międzynarodowych (dla całej UE jest to Komisja Europejska) rezerwują sobie prawo do zatwierdzania fuzji i przejęć, co oznacza, że mogą zgłosić wobec nich veto. Oczywiście, w gospodarce rynkowej przedsiębiorstwa mają swobodę dokonywania wyborów. Prywatne firmy generalnie mogą w sposób dowolny:
1.
zwiększać lub zmniejszać produkcję
2.
ustalać ceny
3.
otwierać, sprzedawać i zamykać zakłady produkcyjne lub punkty działalności
4.
zatrudniać i zwalniać pracowników
5.
rozpoczynać lub kończyć sprzedaż konkretnych produktów
Jeśli właściciele przedsiębiorstwa chcą nabyć inną firmę, sprzedać swoją własność obcemu podmiotowi lub połączyć się z innym przedsiębiorstwem, posunięcia te wchodzą w zakres przywołanej wcześniej swobody w dokonywaniu wyborów ekonomicznych. Oczywiście właściciele i kadra kierownicza przedsiębiorstw prywatnych, podobnie jak wszyscy ludzie, czasami popełniają błędy. Mogą zdecydować się na zamkniecie rentownej fabryki. Mogą zacząć sprzedawać produkt, który doprowadzi ich przedsiębiorstwo do bankructwa lub narazi na poważne straty. Fuzja dwóch firm może czasami prowadzić do starcia osób o różnych charakterach, co pogarsza sytuację nowego podmiotu w stosunku do status quo ante. Nie zmienia to jednak faktu, iż gospodarka rynkowa opiera się na przekonaniu, że to właśnie właściciele przedsiębiorstw i wynajęci przez nich menedżerowie, a nie państwo, są w stanie najlepiej ocenić, czy ich działania doprowadzą do przyciągnięcia nowych klientów lub osiągnięcia wyższego zysku.
### Współczynnik koncentracji
Urzędy regulacyjne od dziesięcioleci zmagały się z problemem pomiaru stopnia siły monopolowej przedsiębiorstw działających w danej gałęzi gospodarki. Początkowo stosowano współczynniki koncentracji (ang. ), które mierzą łączny udział w rynku (lub procent całkowitej sprzedaży gałęzi) największych przedsiębiorstw na nim działających (zwykle od czterech do ośmiu). Aby dowiedzieć się, w jaki sposób rosnąca koncentracja rynku może przekładać się na nieefektywność gospodarowania, zapoznaj się z .
Załóżmy, że w pewnym mieście funkcjonuje 18 firm naprawiających szyby samochodowe, z udziałami w rynku przedstawionymi w . Udział w rynku (ang. ) to wielkość sprzedaży danego przedsiębiorstwa odniesiona do całkowitej sprzedaży gałęzi. Współczynnik koncentracji czterech przedsiębiorstw obliczamy, dodając udziały w rynku czterech największych firm: w tym przypadku . Powyższy współczynnik koncentracji nie jest szczególnie wysoki, ponieważ cztery największe firmy dają łącznie mniej niż połowę produkcji gałęzi.
Wykorzystanie współczynnika koncentracji pozwala ocenić to, na ile ewentualne decyzje podejmowane przez urzędy antymonopolowe są oparte na racjonalnych przesłankach. Na przykład gdyby doszło do połączenia dwóch najmniejszych firm na rynku usług naprawy szyb samochodowych w naszym hipotetycznym mieście, współczynnik koncentracji czterech przedsiębiorstw nie zmieniłby się. Oznacza to, że nie powinno być większych obaw, że intensywność konkurencji na rynku znacznie się zmniejszy. Trudno byłoby zatem obronić ewentualną negatywną decyzję dotyczącą tej fuzji. W przypadku fuzji dwóch największych firm (Naprawa Gładka Jak Po Szkle i Doktor Szyba) współczynnik koncentracji czterech przedsiębiorstw zwiększyłby się do poziomu . Chociaż współczynnik koncentracji jest nieco wyższy, cztery największe firmy dostarczają nadal mniej niż połowę produkcji gałęzi, więc także ta fuzja nie powinna budzić niepokoju organów antymonopolowych.
### Indeks Herfindahla-Hirschmana (HHI)
Współczynnik koncentracji to stosunkowo proste narzędzie, pokazujące tylko niektóre aspekty stopnia koncentracji produkcji lub sprzedaży w analizowanej gałęzi. Rozważmy teraz przykład dwóch branż, w których współczynnik koncentracji czterech przedsiębiorstw wynosi 80. Jednak w pierwszej gałęzi każda z pięciu firm kontroluje po 20% rynku, podczas gdy w drugiej największe przedsiębiorstwo kontroluje aż 77% rynku, a wszystkie pozostałe – po 1%. Chociaż współczynniki koncentracji czterech przedsiębiorstw są identyczne w obu branżach, znacznie większe zainteresowanie urzędu antymonopolowego powinna budzić ta druga, gdyż pomimo pozornej konkurencji, największe przedsiębiorstwo jest w niej faktycznym monopolistą (ma swobodę ustalania cen).
Aby poradzić sobie z tymi ograniczeniami i uzyskać obraz koncentracji produkcji lub sprzedaży całej gałęzi, można wykorzystać indeks Herfindahla-Hirschmana (HHI) (ang. ). Parametr ten obliczamy, sumując kwadraty udziałów w rynku wszystkich przedsiębiorstw działających w danej branży, jak to ilustruje poniższa
### Nowe kierunki polityki antymonopolowej
Zarówno współczynnik koncentracji, jak i Indeks Herfindahla-Hirschmana mają pewne wady. Po pierwsze, opierają się na założeniu, że analizowana gałąź jest dobrze zdefiniowana, a jedyne pytanie dotyczy podziału produkcji pomiędzy działające w jej ramach podmioty. Po drugie, wykorzystują domniemanie, iż warunki konkurencji w różnych gałęziach są do siebie na tyle podobne, że do podjęcia decyzji o zgodzie na ewentualną fuzję lub przejęcie (czyli do oceny wpływu tego typu transakcji na intensywność konkurencji w danej branży) wystarczy znajomość jednej z dwóch miar koncentracji produkcji rynkowej. Jednak te założenia nie zawsze (a szczerze mówiąc, raczej rzadko) są prawdziwe. W odpowiedzi na te problemy urzędy antymonopolowe w ciągu dwóch ostatnich dziesięcioleci zmieniły swój sposób postępowania.
Sporną kwestią jest często definicja rynku (ang. ). Na przykład firma Microsoft na początku XXI w. miała dominujący udział w rynku komputerowych systemów operacyjnych. Jednak na całym rynku oprogramowania i usług komputerowych, od gier aż po programy naukowe, udział Microsoftu wyniósł w 2014 r. tylko ok. 14%. Wąsko zdefiniowany rynek będzie sprawiał wrażenie bardziej skoncentrowanego, podczas gdy rynek szeroko zdefiniowany będzie wyglądał na bardziej konkurencyjny, co oczywiście wpłynie na posunięcia urzędów antymonopolowych. Podobna sytuacja wystąpiła w Polsce w 2007 r. w czasie fuzji dwóch banków – Pekao SA i BPH. Definiując rynek, na którym podmioty te działały po prostu jako usługi bankowe, nowe przedsiębiorstwo nie zyskiwało dominującej pozycji. Jednak w momencie, w którym UOKiK dokonał rozróżnienia pomiędzy działalnością depozytową i kredytową i zdefiniował rynek w kategoria konkretnych rodzajów kredytów i pożyczek, okazało się, że nowy bank, który wyłoniłby się z fuzji Pekao SA i BPH, zyskałby dominującą pozycję na niektórych z tak wąsko zdefiniowanych rynków. W konsekwencji UOKiK wymusił na banku BPH sprzedaż części ze swoich oddziałów przed połączeniem z Pekao SA.
W ciągu ostatnich kilkudziesięciu lat miały miejsce dwie szczególnie istotne zmiany, wpływające na sposób definiowania rynków: jedna koncentruje się na technologii, a druga na procesach globalizacyjnych (ang. ). Obie zmiany są zresztą ze sobą powiązane. Wraz z ogromnym rozwojem technologii komunikacyjnych, przede wszystkim internetu, konsument może zamawiać książki lub artykuły dla zwierząt (a więc produkty, które zazwyczaj kupowane były na niewielkich lokalnych rynkach) w podmiotach operujących w skali całego kraju lub nawet całego światowego rynku. W rezultacie wiele lokalnych przedsiębiorstw handlu detalicznego ma do czynienia z coraz większą konkurencją. Efekt ten może być jeszcze silniejszy przy zakupach dóbr inwestycyjnych dokonywanych przez przedsiębiorstwa. Specjalne witryny internetowe przeznaczone dla transakcji B2B (ang. ) umożliwiają kontakt nabywcom i dostawcom z dowolnego miejsca na świecie.
Globalizacja zmieniła rozumienie granic rynków. Jeszcze w latach 70. XX w. powszechne było obliczanie współczynników koncentracji i indeksów HHI wyłącznie dla rynków krajowych. Obecnie w wielu gałęziach konkurenci działają przede wszystkim na rynkach globalnych. Kilkadziesiąt lat temu na amerykańskim rynku motoryzacyjnym dominowały trzy firmy: General Motors, Ford i Chrysler. Jednak w 2014 r. ich łączna produkcja stanowiła już mniej niż połowę sprzedaży samochodów w USA i firmy te musiały zmierzyć się z konkurencją ze strony zagranicznych producentów samochodów, takich jak Toyota, Honda, Nissan, Volkswagen, Mitsubishi i Mazda. Indeksy HHI wskazują, że większość głównych gałęzi gospodarki, w tym branża samochodowa, charakteryzuje się niższą koncentracją w skali globalnej niż w skali krajowej.
Nowe podejście do polityki antymonopolowej polega na szczegółowej analizie sytuacji na konkretnych rynkach, w kontekście podmiotów zmieniających swoją strukturę własnościową, w miejsce prostego obliczania udziałów w sprzedaży całej branży. Punktem wyjścia jest wykorzystanie narzędzi statystycznych i danych rzeczywistych do oszacowania krzywych popytu (ang. ) i krzywych podaży (ang. ) przedsiębiorstw planujących fuzję lub przejęcie. Drugim krokiem jest określenie, jaki rodzaj konkurencji występuje w tej konkretnej branży. Może to być np. konkurowanie w celu obniżenia cen, zwiększenia produkcji, budowania marki za pomocą reklamy albo budowania reputacji opartej na standardach obsługi klienta lub jakości i niezawodności produktu. Dysponując wszystkimi elementami układanki, możliwe jest zbudowanie modelu statystycznego, na podstawie którego zostaną oszacowane prawdopodobne korzyści i koszty konkretnej fuzji lub przejęcia. Modele te opierają się oczywiście na subiektywnej ocenie ekspertów zatrudnianych przez urzędy antymonopolowe, tak więc mogą być przedmiotem sporów prawnych między nimi a chcącymi się połączyć przedsiębiorstwami.
### Kluczowe pojęcia i podsumowanie
Fuzja polega na połączeniu się dwóch prywatnych przedsiębiorstw. Przejęcie polega na wykupieniu jednej firmy przez drugą. W obu przypadkach dwie wcześniej niezależne firmy stają się jednym podmiotem. Przepisy antymonopolowe mają na celu zapewnienie konkurencji na rynkach poprzez m.in. uniemożliwianie tworzenia się dużych przedsiębiorstw w wyniku fuzji i przejęć, regulowanie działań mogących ograniczać konkurencję lub dzielenie dużych przedsiębiorstw na mniejsze.
Współczynnik koncentracji jest jednym ze sposobów pomiaru stopnia konkurencji na rynku. Współczynnik koncentracji czterech przedsiębiorstw obliczamy, dodając udziały w rynku – czyli odsetek całkowitej sprzedaży – czterech największych firm w gałęzi. Inną metodą pomiaru stopnia konkurencji na rynku jest indeks Herfindahla-Hirschmana (HHI). Obliczamy go jako sumę kwadratów udziałów rynkowych wszystkich przedsiębiorstw w danej gałęzi gospodarki.
Globalizacja oraz rozwój nowych technologii komunikacyjnych i informacyjnych podniosły poziom konkurencji w wielu branżach poprzez wchodzenie na rynki lokalne przedsiębiorstw działających w skali globalnej.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
|
# Zawodność rynku – państwo a biznes
## Regulacje monopolu naturalnego
Obecnie większość monopoli, zarówno w Polsce, jak i w UE czy Stanach Zjednoczonych, ma charakter monopoli naturalnych, podlegających daleko idącej regulacji ze strony państwa. Monopol naturalny stanowi trudne wyzwanie dla urzędów odpowiedzialnych za politykę ochrony konkurencji, ponieważ struktura kosztów i popytu sprawia, że zapewnienie konkurencji w gałęzi, w której działa monopol naturalny, byłoby niezwykle kosztowne, a zatem nie niosłoby ze sobą korzyści dla konsumentów. Monopol naturalny (ang. ) powstaje, gdy koszt przeciętny maleje (istnieją rosnące przychody ze skali produkcji) dla rozmiarów produkcji określonych popytem rynkowym. Dzieje się tak zwykle wtedy, gdy koszty stałe stanowią decydujący komponent struktury kosztów (np. dla przedsiębiorstw zajmujących się przesyłem mediów – energii elektrycznej, wody czy gazu – kluczowym elementem kosztów są nakłady na budowę infrastruktury przesyłowej, czyli sieci elektrycznych, rurociągów i gazociągów). W rezultacie jedno przedsiębiorstwo jest w stanie zaspokoić cały popyt rynkowy po niższych kosztach niż zrobiłyby to dwie lub więcej firm. A zatem podział monopolu naturalnego (lub wymuszenie konkurencji poprzez wprowadzenie na rynek kolejnej firmy) doprowadziłby do wzrostu kosztów przeciętnych produkcji i zmusiłby przedsiębiorstwa do podniesienia cen.
Właśnie przedsiębiorstwa dostarczające usługi użyteczności publicznej (media), np. wodę lub energię elektryczną, są typowymi przykładami monopoli naturalnych. Niewiele sensu miałby podział lokalnego przedsiębiorstwa wodociągowego na kilka konkurujących ze sobą firm, z których każda dysponowałaby własnym system rurociągów i stacji zaopatrzenia w wodę. Zainstalowanie czterech lub pięciu identycznych zestawów rur pod miastem, po jednym dla każdego przedsiębiorstwa wodociągowego, tak aby każde gospodarstwo domowe mogło wybrać sobie dostawcę wody, byłoby niezwykle kosztowne. Ten sam argument dotyczy dostaw energii elektrycznej przez wiele przedsiębiorstw, z których każde miałoby własną sieć przesyłową. Przed pojawieniem się telefonów komórkowych argumenty te odnosiły się również do możliwości działania na jednym rynku wielu różnych firm telekomunikacyjnych, z których każda posiadałaby własny system kabli biegnących pod ulicami miast.
### Możliwości regulacji monopolu naturalnego
Jaka jest zatem właściwa polityka ochrony konkurencji w gałęziach, w których działają monopole naturalne? pokazuje przypadek monopolu naturalnego z krzywą popytu rynkowego, która przecina malejącą część krzywej kosztu przeciętnego (ang. ). Punkty A, B, C i F reprezentują cztery główne sposoby regulacji działania monopolu naturalnego. Odpowiednie dane zawiera .
Pierwsza możliwość to pozostawienie monopolu naturalnego poza jakąkolwiek regulacją. W takim przypadku monopolista będzie po prostu maksymalizował swój zysk. Wybierze wielkość produkcji, dla której (punkt P), przy wolumenie produkcji równym 4. Z krzywej popytu odczyta cenę dla tych rozmiarów produkcji (punkt A), która jest równa 9,3. Ponieważ cena jest większa niż koszt przeciętny dla wybranego wolumenu produkcji, monopol naturalny osiągnie zysk ekonomiczny.
Druga możliwość to podział monopolu naturalnego na mniejsze, konkurujące ze sobą podmioty. Dla uproszczenia przyjmijmy, że analizowane przedsiębiorstwo zostało podzielone na dwa mniejsze. W konsekwencji zamiast jednej dużej firmy produkującej na poziomie 4 na rynku funkcjonują dwie mniejsze, z których każda produkuje wolumen równy 2. Ze względu na malejącą krzywą kosztu przeciętnego (AC), która jest charakterystyczna dla monopolu naturalnego, przeciętny koszt produkcji każdej z nowo powstałych firm, wytwarzającej wolumen na poziomie 2, wyniesie 9,75 (co ilustruje punkt B). Tymczasem średni koszt produkcji naturalnego monopolisty, wytwarzającego wolumen równy 4, wynosi tylko 7,75.
W ten sposób gospodarka, w której działa naturalny monopolista, stałaby się mniej efektywna produkcyjnie, ponieważ dobro byłoby wytwarzane po wyższym koszcie przeciętnym. Przy malejącej krzywej kosztu przeciętnego dwie mniejsze firmy zawsze będą miały wyższe koszty przeciętne dla każdej wielkości produkcji niż jedna większa firma. Dodatkowo urzędy antymonopolowe powinny się obawiać, że rozbicie monopolu naturalnego na mniejsze przedsiębiorstwa może być dopiero pierwszym z serii wyzwań. Jeśli jedna z dwóch firm stanie się większa od drugiej, będzie miała niższe koszty przeciętne i może być w stanie wyprzeć konkurenta z rynku. Alternatywnie, dwie firmy mogą zacząć koordynować swoje działania i utrzymywać wysokie ceny. Tak czy inaczej rezultatem wcale nie musi być konkurencja, której oczekiwano.
Trzecia możliwość polega na tym, że organ regulacyjny może ustalić konkretną cenę i wielkość produkcji w danej gałęzi. Stosowny urząd będzie starał się wybrać taki punkt na krzywej popytu rynkowego, który będzie odzwierciedlał poziom produkcji korzystny zarówno dla konsumentów, jak i dla ogółu społeczeństwa. Punkt C ilustruje taką kuszącą opcję: regulator wymaga od przedsiębiorstwa wyprodukowania takiej ilości, dla której koszt krańcowy zrównuje się z ceną, czyli wolumen równy 8 i ustalenia ceny na poziomie kosztu krańcowego, tj. 3,5. Ta opcja jest atrakcyjna, gdyż stanowi odzwierciedlenie sytuacji, która ukształtowałaby się w tej gałęzi w warunkach konkurencji doskonałej, co automatycznie przekłada się na większą produkcję i niższą cenę, niż w warunkach monopolu. Dodatkowo, przy wyborze produkcji opisanej jako punkt C pojawia się efektywna alokacja zasobów, ponieważ z punktu widzenia konsumentów wartość ostatniej jednostki kupionej i sprzedanej na rynku jest równa kosztowi krańcowemu jej wytworzenia.
Rozwiązanie opisane punktem C, które zostałoby narzucone monopoliście, ma jednak również poważną wadę. Przy produkcji równej 8 sprzedawanej po cenie 3,5 przychody byłyby niższe od kosztów wytwarzania (cena równa 3,5 jest niższa od kosztu przeciętnego, który kształtuje się na poziomie 5,7) i przedsiębiorstwo ponosiłoby straty. Jeżeli państwo nie zaoferowałoby firmie stałej dotacji publicznej (a jest z tym wiele problemów politycznych), firma systematycznie traciłaby pieniądze i albo zostałaby zmuszona do wyjścia z gałęzi, albo po prostu by zbankrutowała.
Być może najlepszą – z punktu widzenia państwowego regulatora – opcją jest punkt F, czyli ustalenie takiej ceny, przy której koszt przeciętny (AC) przecina krzywą popytu. Oznacza to produkcję na poziomie 6 i cenę równą 6,5. Takie rozwiązanie wydaje się sensowne nawet intuicyjnie – pozwala monopoliście naturalnemu pobierać cenę wystarczającą do pokrycia jego kosztu przeciętnego i tym samym gwarantuje mu zysk normalny umożliwiający dalsze działanie, ale jednocześnie zapobiega podnoszeniu cen przez to przedsiębiorstwo i osiąganiu nadzwyczaj wysokich zysków monopolowych, tak jak działoby się to w przypadku równowagi ustalonej w punkcie A. Oczywiście musimy pamiętać, że biorąc pod uwagę naciski polityczne, ograniczenia czasowe i niepełną informację, wyznaczenie w rzeczywistym świecie takiego (gwarantującego zysk normalny) poziomu produkcji i ceny jest znacznie trudniejsze, niż wskazanie punktu na wykresie. Szerszy opis problemów, które mogą wynikać z odgórnego ustalania cen, można znaleźć w rozdziale omawiającym ceny minimalne i maksymalne ().
### Regulacja cen oparta na kosztach a regulacje wykorzystujące ceny maksymalne
Organy regulujące działalność przedsiębiorstw użyteczności publicznej (czyli najczęściej naturalnych monopoli) przez wiele dziesięcioleci stosowały podejście oparte na koszcie przeciętnym, czyli – wykorzystując przykład z punktu powyżej – wskazywały przedsiębiorstwom wielkość produkcji i cenę opisaną punktem F na . Obliczano koszt przeciętny produkcji dla przedsiębiorstw wodociągowych lub energetycznych, dodawano kwotę odpowiadającą normalnej stopie zysku oczekiwanego przez przedsiębiorstwo i na tej podstawie ustalano cenę dla konsumentów. Ta metoda była znana jako regulacja cen oparta na kosztach (ang. ).
Regulacja cen w oparciu o koszty sama w sobie tworzy jednak liczne wyzwania. Jeśli producenci otrzymują zwrot kosztów powiększony o pewną marżę, to w zasadzie nie mają żadnych bodźców do obniżania wysokich kosztów działalności, ponieważ mogą po prostu przenosić je na konsumentów w postaci wyższych cen. Co gorsza, przedsiębiorstwa objęte regulacją cen opartą na kosztach mają nawet motywację do generowania wysokich kosztów poprzez budowę ogromnych fabryk lub zatrudnianie wielu pracowników, ponieważ cena, którą mogą pobierać, jest powiązana z ponoszonymi przez nie kosztami. Badania prowadzone przez wielu amerykańskich ekonomistów dowiodły, że wskazane wyżej problemy związane z regulacją cen w oparciu o koszty występowały w gospodarce USA w latach 60. i 70. Niemal regułą było wówczas tworzenie silnych grup nacisku złożonych z kadry kierowniczej i pracowników takich przedsiębiorstw, którzy byli zainteresowani utrzymywaniem wysokich wynagrodzeń i licznych pozapłacowych korzyści związanych z zatrudnieniem. Niekiedy dochodziło wręcz do dziedziczenia miejsc pracy w przedsiębiorstwach użyteczności publicznej, czyli przyjęcia zasady, że jeśli pracownik odchodził na emeryturę, pierwszeństwo w zatrudnieniu na jego miejsce mieli członkowie jego rodziny. Podobnych porozumień broniły liczne związki zawodowe funkcjonujące w takich firmach.
W związku z tym w latach 80. i 90. XX w. coraz powszechniej wykorzystywanym podejściem stały się regulacje pułapów cenowych (ang. ), w ramach których organ regulacyjny wyznaczał maksymalną cenę, jaką przedsiębiorstwo mogło pobierać w ciągu kolejnych kilku lat. Powszechne było ustalanie limitów cenowych nieznacznie malejących wraz z upływem czasu. W takiej sytuacji, jeśli firma potrafiła znaleźć sposób na obniżkę kosztów w tempie szybszym niż obniżka limitów cenowych, mogła osiągnąć wysokie zyski. Jeśli jednak nie nadążała za zmianami pułapów cenowych lub miała pecha na rynku, ponosiła stratę. Po upływie kilku lat organy regulacyjne na nowo ustalały poziomy pułapów cenowych, analizując wyniki przedsiębiorstwa.
Regulacja pułapów cenowych wymaga starannego wdrożenia. Nie zadziała, jeśli organy regulacyjne ustalą pułap cenowy na nierealistycznie niskim poziomie. Może także nie zadziałać przy nagłych zmianach sytuacji na rynku, gdy firma będzie skazana na ponoszenie strat bez względu na to, co zrobi. Na przykład jeśli ceny energii na rynkach światowych gwałtownie wzrosną, przedsiębiorstwo sprzedające gospodarstwom domowym gaz ziemny lub olej opałowy może nie być w stanie sprostać limitom cenowym, które wydawały się rozsądne jeszcze rok czy dwa lata wcześniej (taka sytuacja miała miejsce w Polsce i innych krajach UE w drugiej połowie 2021 r. w związku z działaniami podejmowanymi na rynku przez rosyjskiej koncerny znajdujące się pod kontrolą państwa). Niezbędne będzie wówczas podniesienie pułapów cenowych, do którego skądinąd doszło tak w Polsce, jak i w innych krajach UE. Co więcej, możliwość osiągania większych zysków lub ponoszenia strat – zamiast zapewnionego średniego poziomu zysku, co jest charakterystyczne dla regulacji cen w oparciu o koszty – może zachęcać monopol naturalny do zwiększania efektywności i innowacji.
W przypadku monopolu naturalnego konkurencja rynkowa jest w zasadzie niemożliwa, o ile nie dojdzie do zasadniczego przełomu technologicznego (jakim był np. rozwój telefonii komórkowej), w związku z czym jeśli państwo chce ochronić konsumentów przed wysokimi cenami i niewielkim wolumenem produkcji, regulacje muszą zostać wprowadzone. Niemniej jednak próbując zaprojektować elastyczny i motywujący system regulacji za pomocą pułapów cenowych, państwo nie ma łatwego zadania.
### Kluczowe pojęcia i podsumowanie
W przypadku monopolu naturalnego pojawienie się w gałęzi więcej niż jednego przedsiębiorstwa i tym samym konkurencja rynkowa są skrajnie nieprawdopodobne, dlatego państwo – dążąc do ochrony konsumentów przed wysokimi cenami i niskim wolumenem produkcji – będzie arbitralnie wyznaczać cenę i/lub wielkość produkcji. Typowymi przykładami firm podlegających regulacji są przedsiębiorstwa użyteczności publicznej dostarczające np. energię elektryczną lub wodę.
Regulacja cen na podstawie kosztów oznacza, że przedsiębiorstwo ma prawo wyznaczyć cenę, która odzwierciedla poziom kosztu przeciętnego powiększony o niewielką marżę zysku. Natomiast regulacja pułapów cenowych występuje wtedy, gdy państwo ustala z kilkuletnim wyprzedzeniem górne limity cenowe, którymi będzie się posługiwał naturalny monopolista. W tym ostatnim przypadku firma może osiągać nawet wysokie zyski nadzwyczajne, jeśli uda jej się produkować po obniżonych kosztach lub dzięki działaniom marketingowym zwiększyć wolumen produkcji. Możliwa jest jednak również sytuacja odwrotna, czyli straty, o ile koszty okażą się wyższe od zakładanego poziomu i/lub sprzedaż będzie mniejsza, niż oczekiwano.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Problemy
Wykorzystaj do odpowiedzi na następujące pytania: |
# Zawodność rynku – państwo a biznes
## Problem niedoskonałej informacji i asymetrii informacji
Pomyślmy o zakupach dokonywanych przez wiele osób w internecie. Ten specyficzny kanał dystrybucji nie dość, że naraża nas na oszustwa (sprzedający w ogóle nie dostarczy nam produktu, za który zapłaciliśmy), to jeszcze nie pozwala nabywcy na kompleksową ocenę jakości, stanu technicznego i innych parametrów wpływających na cenę kupowanego dobra. W związku z tym wielu kupujących ma do czynienia z asymetrią informacji (ang. ), czyli sytuacją, gdy dwie strony zaangażowane w transakcję rynkową mają nierówny dostęp do informacji (jedna strona wie znacznie więcej niż druga). Ten sam mechanizm pojawia się na rynku używanych samochodów, antyków, usług turystycznych itd.
Wiele transakcji odbywa się w warunkach niedoskonałej informacji (ang. ), czyli w sytuacji, gdy nabywca, sprzedawca lub obie strony nie są w 100% pewne, jaka jest jakość kupowanych lub sprzedawanych produktów. Zacznijmy od kilku przykładów, które pokażą, jak niedoskonała informacja komplikuje transakcje na rynkach dóbr, pracy i kapitału finansowego (ang. ). Niedoskonała informacja może łatwo doprowadzić do spadku ceny lub ilości sprzedawanych produktów. Jednak nabywca i sprzedawca mają również motywację do tworzenia mechanizmów, które pozwolą im dokonywać obopólnie korzystnych transakcji nawet w obliczu niedoskonałej informacji.
Jeśli nie masz pewności, czym różni się asymetria informacji od niedoskonałej informacji, przeczytaj poniższą .
### Rynek tandety i inne przykłady niedoskonałej informacji
Spróbujmy postawić się w sytuacji Marka, który zastanawia się nad kupnem używanego samochodu. Załóżmy, że Marek nie ma bladego pojęcia, jak działa silnik spalinowy, w związku z czym nie będzie w stanie zorientować się w ewentualnych usterkach. Jest gotów zainwestować swój czas w czytanie raportów konsumenckich lub sprawdzanie stron internetowych zawierających informacje o markach i modelach używanych aut oraz ich cenach. Mógłby również zapłacić mechanikowi za sprawdzenie wozu, który mu się spodoba. Jednak nawet poświęcając pieniądze i czas na zbieranie informacji, Marek nadal nie może być absolutnie pewien, że kupi używany samochód w dobrym stanie. Wie, że może nabyć auto, pojechać nim do domu, używać przez kilka tygodni i dopiero wtedy odkryć, że jego samochód to „tandeta” (angielskim terminem określającym taki produkt jest , czyli cytryna, ze względu na to, że w starych automatach hazardowych, tzw. jednorękich bandytach, cytryny oznaczały przegraną).
Wyobraź sobie, że Marek szuka używanego samochodu i znajduje dwa, które wyglądają bardzo podobnie, mają zbliżony przebieg, wiek i inne parametry (pojemność silnika, spalanie itd.) stanowiące o cenie. Jeden samochód kosztuje 40 tys., a drugi 46 tys. zł. Który z nich Marek powinien kupić?
Gdyby Marek wybierał w świecie doskonałej informacji, odpowiedź byłaby prosta: powinien kupić auto tańsze. Jednak Marek działa w warunkach niedoskonałej informacji, w świecie, w którym sprzedawcy prawdopodobnie wiedzą więcej o problemach technicznych samochodu i mają motywację do ukrywania takich informacji. W końcu im więcej problemów ujawnią potencjalnemu nabywcy, tym niższa będzie cena samochodu.
Co powinien zrobić Marek? Po pierwsze, musi zrozumieć, że nawet przy niedoskonałej informacji ceny nadal mają pewną wartość informacyjną. Używane samochody są zazwyczaj droższe u dealerów posiadających dobrą reputację. Tacy sprzedawcy, chcąc utrzymać swoją markę na rynku, starają się informować klientów o wszystkich potencjalnych problemach sprzedawanych aut, aby nie stracić renomy. Krótkookresowe korzyści ze sprzedaży szmelcu mogą bowiem spowodować szybką utratę reputacji i tym samym spadek zysków w długim okresie. U innych dealerów, o mniej ugruntowanej pozycji rynkowej, można znaleźć tańsze używane samochody, ale kupujący ponosi większe ryzyko, gdyż takie firmy mniej troszczą się o opinię klientów (konkurują ceną, a nie jakością). Najtańsze samochody pojawiają się zwykle w internetowych serwisach ogłoszeń, w których indywidualny sprzedawca nie ma żadnej reputacji. Podsumowując, niższe ceny niosą ze sobą większe ryzyko, więc Marek powinien ocenić, czy bardziej zależy mu na niskiej cenie, czy też woli zmniejszyć prawdopodobieństwo niedogodności wynikających z konieczności naprawy dopiero co kupionego samochodu.
Podobne problemy z niedoskonałą informacją pojawiają się na rynku pracy i na rynku kapitału finansowego. Tym razem przeanalizujmy sytuację Grażyny, która stara się o pracę. Jej potencjalny pracodawca, podobnie jak nabywca używanego samochodu, obawia się nabycia „tandety”, czyli w tym przypadku zatrudnienia leniwego pracownika, który nie posiada wiedzy, kwalifikacji i umiejętności niezbędnych na wakującym stanowisku. Pracodawca może zebrać informacje o wykształceniu i doświadczeniu zawodowym Grażyny, jednak pewien stopień niepewności co do jej umiejętności i zaangażowania w wykonywane obowiązki pozostanie. W jaki sposób potencjalny pracodawca może sprawdzić takie cechy jak motywacja, terminowość i umiejętność współpracy z innymi? Przedstawiciele działów kadr często wykorzystują informacje o ukończonych szkołach i uczelniach w celu wstępnej selekcji kandydatów. Pracodawcy mogą uznać nagrody, wysoką średnią ocen i inne wyróżnienia jako oznakę gotowości do ciężkiej pracy, wytrwałości i nabytej wiedzy. Mogą też prosić o referencje od poprzednich pracodawców w celu sprawdzenia takich cech jak terminowość realizacji powierzonych zadań i etyka pracy.
### Jak niedoskonała informacja może wpłynąć na cenę i ilość w stanie równowagi rynkowej?
Niedoskonała informacja może zniechęcić zarówno kupujących, jak i sprzedających do dokonania transakcji rynkowej. Nabywcy mogą nie chcieć uczestniczyć w wymianie, nie będąc w stanie sprawdzić jakości tego, co kupują. Z kolei sprzedawcy produktów wysokiej lub średniej klasy mogą być nieskorzy do udziału w transakcji z powodu trudności z udowodnieniem jakość oferowanych przez nich dóbr lub usług; w takiej sytuacji kupujący nie będą chcieli zapłacić wyższej ceny, nie mając gwarancji jakości nabywanych towarów.
Rynek, na którym jest niewielu kupujących i sprzedających, ekonomiści nazywają czasem rynkiem wąskim (ang. ). Natomiast rynek, na którym jest wielu kupujących i sprzedających, jest nazywany szerokim rynkiem (ang. ). Kiedy informacja jest wysoce niedoskonała, a nabywcy i sprzedawcy niechętnie uczestniczą w wymianie, rynki mogą stać się bardzo wąskie, ponieważ tylko stosunkowo niewielka liczba kupujących i sprzedających może dojść do porozumienia i ustalić cenę transakcji.
### Jak cena zmienia postrzeganie jakości produktów w warunkach niedoskonałej informacji?
W obliczu niedoskonałej informacji nabywca często uważa, że cena odzwierciedla jakość produktu. Na przykład kupujący, nawet jeśli nie jest ekspertem znającym się na elektronice i motoryzacji, może założyć, że droższy samochód lub gadżet elektroniczny muszą reprezentować wyższą jakość. Pomyśl o drogiej restauracji, w której jedzenie musi być dobre, bo jest drogie, lub o sklepie, w którym ubrania muszą być stylowe, ponieważ dużo kosztują. Albo o galerii, w której wystawa musi być świetna, skoro ceny biletów są wysokie. Jeśli zatrudniasz prawnika, możesz przypuszczać, że pobierający 400 zł za godzinę jest lepszy od tego, który życzy sobie tylko 150 zł. W takich przypadkach cena może być sygnałem jakości. Zwróć uwagę, że ten mechanizm działa tylko wówczas, gdy trudno jest obiektywnie ocenić jakość produktów. Cóż to bowiem znaczy świetna wystawa lub stylowe ubranie? Chcemy wierzyć, że płacimy za dane dobro wysoką cenę, bo ma ono wysoką jakość. Być może jest jednak tak, że pewne specyficzne produkty mają wysoką jakość, bo klienci bardzo dużo za nie płacą (najlepszym przykładem tego mechanizmu są dzieła sztuki, szczególnie nowoczesnej). Jeśli jednak potrafimy ocenić jakość konkretnego produktu (np. chleba), wtedy cena nie będzie dla nas sygnałem odzwierciedlającym jego jakość. Tyle że w tej sytuacji nie będziemy mieć do czynienia z niedoskonałą informacją.
Kiedy nabywcy wykorzystują cenę rynkową do wyciągania wniosków na temat jakości produktów, rynki mogą mieć problem z osiągnięciem ilości i ceny równowagi. Wyobraź sobie pewną sytuację: oto dealer samochodów ma „na placu” dużo używanych aut, których nikt nie chce kupić. Postanawia więc obniżyć ceny, aby się ich wreszcie pozbyć. Na rynku z niedoskonałą informacją wielu kupujących może przypuszczać, że niższa cena oznacza samochody niskiej jakości. W efekcie niższa cena może wręcz zniechęcić potencjalnych klientów. I odwrotnie, dealer podnoszący ceny może założyć, że klienci uznają, iż większa cena oznacza wyższą jakość. W takiej sytuacji, w wyniku wzrostu cen, dealer może sprzedać więcej samochodów. (To, czy konsumenci zawsze zachowują się racjonalnie, przynajmniej z punktu widzenia ekonomisty, jest tematem poniższej ).
Koncepcja, zgodnie z którą wyższe ceny mogą doprowadzić do wzrostu zapotrzebowania, a niższe przynieść jego spadek, stoi w sprzeczności z podstawowym modelem popytu i podaży (jaki nakreśliliśmy w ). Oczywiście, opisany powyżej mechanizm również ma swoje naturalne granice. W pewnym momencie, jeśli cena będzie wystarczająco wysoka, popyt spadnie. I odwrotnie, gdy cena spadnie do wystarczająco niskiego poziomu, kupujący będą widzieli sens zakupu dobra, nawet podejrzewając, że jakość produktu jest niska. Ponadto informacje rozprzestrzeniają się wśród nabywców na rynku. Zbyt droga restauracja, która pobiera wyższe ceny, niż wynikałyby to z jakości posiłków, nie będzie działać wiecznie. Choć liczba snobów, którzy kupią dobro lub usługę tylko dlatego, że jest ona modna, mogłaby nas zadziwić.
### Mechanizmy zmniejszające ryzyko związane z niedoskonałą informacją
Jeśli sprzedajesz dobra takie jak antyki lub używane samochody, gdzie niedoskonała informacja może stanowić problem, jak możesz zachęcić potencjalnych nabywców do zawarcia transakcji? Z kolei gdybyś kupował towar w warunkach niedoskonałej informacji, co mogłoby cię skłonić do dokonania zakupu? Nabywcy i sprzedawcy na rynku dóbr wykorzystują reputację, a także gwarancje, rękojmie i umowy serwisowe do zagwarantowania określonej jakości produktu. Na rynku pracy wykorzystywane są świadectwa, licencje i certyfikaty zawodowe pokazujące kompetencje, wiedzę i umiejętności pracowników, zaś na rynku kapitału finansowego poręczyciele i zabezpieczenia majątkowe stanowią częściową gwarancję uniknięcia kosztu nieprzewidzianych szkodliwych zdarzeń.
Na rynku dóbr sprzedawca może zaoferować gwarancję zwrotu pieniędzy (ang. ). Jest to umowa, która działa jak obietnica jakości. Gwarancja zwrotu pieniędzy polega na tym, że jeśli nie spodoba nam się konkretny produkt, możemy go bez żadnych dodatkowych warunków zwrócić, często na koszt sprzedawcy. Jest to szczególnie istotne dla firm, które sprzedają towary za pośrednictwem katalogów wysyłkowych lub przez internet, w związku z czym klienci nie mogą zobaczyć i przymierzyć towaru przed jego zakupem. Gwarancja zachęca ludzi do kupna, nawet jeśli nie wiedzą, czy na pewno chcą dane dobro nabyć. Jest to nieodłączny element modelu biznesowego takich marek, jak e-obuwie lub Zalando.
Sprzedawcy mogą zaoferować gwarancję (ang. ), która jest obietnicą naprawy lub wymiany towaru, przynajmniej przez określony czas. Sprzedawca może również zawrzeć z nabywcą umowę serwisową (ang. ), w ramach której, za dodatkową opłatą, zgadza się naprawiać przez określony czas wszystkie usterki zakupionego towaru. Umowy serwisowe występują często jako opcja przy zakupie dóbr wartościowych, np. samochodów, urządzeń gospodarstwa domowego, a nawet domów.
Gwarancje, rękojmie i umowy serwisowe to przykłady pewnego rodzaju zabezpieczeń udzielanych przez sprzedawców. W wielu przypadkach firmy oferują również nieformalne zabezpieczenia. Na przykład niektóre kina mogą zwrócić koszt biletu widzowi, który wychodzi z seansu w ciągu pierwszych 20-30 minut i skarży się na film. Podobnie jest z restauracjami, które raczej nie gwarantują zwrotu pieniędzy ani nie oferują polityki wymiany towarów, ale często pozwalają swoim klientom na wymianę jednego dania na inne lub na obniżenie ceny rachunku, jeśli klient jest niezadowolony.
Uzasadnieniem takich działań jest chęć pozyskania stałych klientów, którzy z kolei będą polecać firmę innym potencjalnym nabywcom. W związku z tym zbudowanie dobrej reputacji ma ogromne znaczenie. Gdy nabywcy wiedzą, że przedsiębiorstwu zależy na opinii klientów, jest mniej prawdopodobne, że otrzymają produkt niskiej jakości. Na przykład sklep spożywczy o ugruntowanej pozycji i dobrej reputacji może żądać wyższej ceny niż sprzedawca na lokalnym targu, którego klienci po dokonaniu zakupu mogą już nigdy więcej nie zobaczyć.
Pracownicy mogą zmniejszyć lub nawet zlikwidować zjawisko niedoskonałej informacji, dostarczając potencjalnemu pracodawcy swój życiorys, rekomendacje z poprzednich miejsc pracy, świadectwa, dyplomy, transkrypty ocen i inne dowody poświadczające uzyskanie koniecznych na danym stanowisku kompetencji. Na rynku pracy (ang. ) wykorzystywane są także licencje zawodowe (ang. ). Wydają je zwykle agencje rządowe i są one dowodem, że pracownik ma określone wykształcenie lub zdał stosowny egzamin. Do podjęcia pracy w zawodach takich jak lekarz, pielęgniarka, architekt czy prawnik licencja jest niezbędna.
Licencje zawodowe mają również swoją wadę, ponieważ stanowią barierę wejścia do niektórych profesji. Utrudnia to nowym chętnym konkurowanie z osobami już pracującymi, co może prowadzić do wyższych płac i w efekcie do wyższych cen oraz gorszej sytuacji konsumentów. Jednak w wypadku wybranych stanowisk państwo uznało, że dodatkowe informacje dostarczane przez licencje przeważają nad ich negatywnym wpływem na konkurencję rynkową.
Po stronie pracodawcy standardowym zabezpieczeniem przed zatrudnieniem leniwego i niekompetentnego pracownika jest nawiązanie z nim pierwszego stosunku pracy na czas określony, co powoduje, że pracodawca po upływie określonego terminu może nie przedłużyć zatrudnienia z dowolnego powodu lub nawet bez podania przyczyny. Czasami pracownicy w okresie próbnym otrzymują również niższe wynagrodzenie.
Na rynku kapitału finansowego (ang. ) bank, zanim udzieli kredytu, wymaga od potencjalnego kredytobiorcy wypełnienia formularzy dotyczących źródeł dochodów. Ponadto instytucja finansowa kontroluje historię kredytową danej osoby. Kolejnym sposobem jest wymaganie poręczyciela (ang. ), czyli innej osoby lub firmy, która prawnie zobowiązuje się do spłaty części lub całości pieniędzy, jeśli pierwotny kredytobiorca tego nie zrobi. Jeszcze innym narzędziem jest wymaganie zabezpieczenia (ang. ), które bank ma prawo zająć i sprzedać w sytuacji, gdy kredytobiorca nie spłaci kredytu. Standardowym zabezpieczeniem kredytu zaciągniętego na zakup nieruchomości jest hipoteka, czyli wpis do księgi wieczystej poświadczający, że dom lub grunt został zakupiony na kredyt i kredytodawca ma prawo do uzyskania zwrotu pożyczonych środków od właściciela danej nieruchomości.
Nabywcy dóbr i usług rzadko są ekspertami, którzy potrafią ocenić jakość używanych samochodów, usług oferowanych przez prawników czy racjonalne podstawy cen antyków i dzieł sztuki. Pracodawcy i pożyczkodawcy nie mają żadnych gwarancji, że potencjalni pracownicy będą poprawnie i terminowo wykonywać swoje obowiązki, a kredytobiorcy spłacą kredyty na czas. Jednak mechanizmy, które wskazaliśmy wyżej, mogą zmniejszyć ryzyko związane z niedoskonałą informacją, tak aby kupujący i sprzedający byli skłonni zawrzeć transakcję nawet wówczas, gdy nie dysponują pełną informacją o jej warunkach.
### Pokusa nadużycia i selekcja negatywna
Pokusa nadużycia (ang. ) występuje wówczas, gdy mając ubezpieczenie, ludzie zachowują się bardziej ryzykownie niż w sytuacji, w której by go nie mieli. Na przykład jeśli posiadasz ubezpieczenie zdrowotne pokrywające koszty wizyty u lekarza i zakupu niezbędnych medykamentów, z mniejszym prawdopodobieństwem podejmiesz środki ostrożności zapobiegające zarażeniu się chorobą, która może wymagać porady lekarskiej (podejmiesz choćby ryzykowne zachowania seksualne). Jeśli masz ubezpieczenie samochodu, będziesz mniej martwić się sposobem jego prowadzenia lub miejscem parkowania. gdyż ewentualna kolizja, stłuczka lub zarysowanie lakieru nie narazi cię na dodatkowe koszty. Firma, która nie ma ubezpieczenia, będzie chciała zainstalować najwyższej klasy systemy bezpieczeństwa i przeciwpożarowe w celu ochrony przed kradzieżą i pożarem. Natomiast jeśli jest ubezpieczona, może zainwestować jedynie w minimalny poziom zabezpieczeń przed wspomnianymi zagrożeniami.
Nie można całkowicie wyeliminować pokusy nadużycia (występuje tu asymetria informacji między firmą ubezpieczeniową a jej klientem), ale przedsiębiorstwa działające na tym rynku mają pewne sposoby na ograniczenie jej negatywnych skutków. Jedną z metod eliminacji skrajnych przypadków pokusy nadużycia są śledztwa mające na celu zapobieganie oszustwom ubezpieczeniowym. Przedsiębiorstwa ubezpieczeniowe mogą również monitorować niektóre rodzaje zachowań swoich klientów. Na przykład zaoferować niższą stawkę ubezpieczeniową przedsiębiorstwu, jeśli zainstaluje ono najwyższej klasy systemy bezpieczeństwa i ochrony przeciwpożarowej oraz będzie przeprowadzało kontrolę tych systemów co najmniej raz w roku.
Natomiast zjawisko negatywnej selekcji (ang. ) odnosi się do sytuacji, w której nabywcy ubezpieczeń wiedzą lepiej niż przedsiębiorstwo ubezpieczeniowe, czy ubezpieczana aktywność wiąże się w ich przypadku z wysokim, czy niskim ryzykiem. Prowadzi to do asymetrii informacji, ponieważ osoby obarczone wysokim ryzykiem będą bardziej skłonne do zakupu ubezpieczenia, nie informując sprzedawcy o podwyższonym ryzyku. To z kolei narazi firmę ubezpieczeniową na straty, gdyż cena ubezpieczenia w niewłaściwy sposób odzwierciedli ryzyko związane z konkretnym podmiotem, który kupuje ubezpieczenie. Na przykład osoba kupująca ubezpieczenie zdrowotne lub ubezpieczenie na życie historię zdrowia swojej rodziny zna lepiej niż ubezpieczyciel, nawet jeżeli przeprowadzi on kosztowne śledztwo w tym zakresie. Z kolei właściciel auta kupujący jego ubezpieczenie wie, czy prowadzi je w sposób ryzykowny, czy raczej bezpieczny, natomiast firmie ubezpieczeniowej, o ile kierowca nie miał wcześniej wypadku lub kolizji, trudno jest zebrać informacje o tym, jak faktycznie jeździ.
### Kluczowe pojęcia i podsumowanie
Wiele osób dokonuje transakcji w warunkach niedoskonałej informacji, czyli w sytuacji, gdy nabywca, sprzedawca lub obie strony nie mają pewności, że wiedzą wszystko na temat jakości i cen rynkowych kupowanego lub sprzedawanego towaru. Gdy informacja o jakości produktu i warunkach transakcji jest niedoskonała, funkcjonowanie rynku może być utrudnione.
„Tandeta” to produkt, który po zakupie okazuje się mieć jakość niższą niż ta deklarowana przez sprzedawcę. Gdy sprzedawca ma dokładniejsze informacje o jakości produktu niż nabywca, nabywca będzie się wahał przed zakupem w obawie przed otrzymaniem szmelcu.
Istnieje wiele sposobów radzenia sobie z niedoskonałą informacją. Nabywcy mogą korzystać z możliwości zwrotu pieniędzy, gwarancji, rękojmi, umów serwisowych i reputacji. Na rynkach pracy pracodawcy mogą korzystać z życiorysów pracowników, rekomendacji i licencji zawodowych oraz zatrudniać na okres próbny. Na rynkach kapitału finansowego pożyczkodawcy mogą wymagać od pożyczkobiorców wypełniania szczegółowych wniosków o kredyt lub pożyczkę, weryfikować zdolność kredytową, wymagać poręczycieli i różnego rodzaju zabezpieczeń.
W przypadku rynku ubezpieczeniowego szczególnie wyraźne są problemy związane z niedoskonałą informacją. W konsekwencji pojawiają się na nim zjawiska takie jak pokusa nadużycia i negatywna selekcja.
### Pytania Self-Check
### Pytania Review
### Pytania Critical Thinking
### Bibliografia
Center on Budget and Policy Priorities. 2015. “Policy Basics: Where Do Our Federal Tax Dollars Go?” Accessed April 1, 2015. http://www.cbpp.org/cms/?fa=view&id=1258.
Consumer Reports. “Consumer Reports.org.” http://www.consumerreports.org/cro/index.htm.
Federal Trade Commission. “About the Federal Trade Commission.” Last modified October 17, 2013. http://www.ftc.gov/ftc/about.shtm.
Huffington Post. 2015. “HUFFPOLLSTER: Poll Shows Uptick In Obamacare Favorable Rating.” Accessed April 1, 2015. http://www.huffingtonpost.com/2015/03/19/affordable-care-act-fav_n_6900938.html.
Kahneman, Daniel, and Amos Tversky. “Prospect Theory: An Analysis of Decision under Risk.” Econometrica. 47, no. 2 (1979): 263-291. http://www.princeton.edu/~kahneman/docs/Publications/prospect_theory.pdf.
Rasmussen Reports, LLC. “Rasmussen Reports.” http://www.rasmussenreports.com/. |
# Wpływ zmian klimatu na rozwój przedsiębiorstw
## Wprowadzenie do rozdziału
W poprzednim rozdziale przedstawiona została koncepcja negatywnych efektów zewnętrznych, czyli szkód, jakie powoduje działalność pojedynczych osób bądź przedsiębiorstw. Wiemy już, że podmioty wywołujące takie szkody nie ponoszą z ich powodu żadnych kosztów – te są najczęściej przerzucane na całe społeczeństwo. Zmiany klimatyczne są jednym z najważniejszych źródeł negatywnych efektów zewnętrznych. W kolejnych podrozdziałach zastanowimy się nad czynnikami, które zmiany te wywołują, ich najważniejszymi konsekwencjami dla sektora przedsiębiorstw, a także sposobami ograniczenia tych niekorzystnych zjawisk i wyeliminowania negatywnych skutków zmian klimatu.
Na półkuli północnej od 2005 r. widać bardzo wyraźny trend kształtowania się średnich temperatur letnich miesięcy. Lektura raportu europejskiego programu badawczego Copernicus (Copernicus Climate Change Service) nie pozostawia żadnych złudzeń: klimat naszej planety ulega daleko idącym zmianom. Potwierdzeniem tego jest właśnie systematyczny wzrost średnich temperatur. Pomiary wskazują, iż średnia globalna temperatura w 2021 r. było o 0,3 °C wyższa od średniej temperatury notowanej w latach 1991–2020, oraz o 1,1°C–1,2°C wyższa od średnich poziomów z lat 1850–1900. Zacytujmy dyrektora Copernicusa, Carlo Buontempo:
Latem 2021 r. można było również zaobserwować intensyfikację negatywnych skutków tych zmian. Wyjątkowo wysokie temperatury w regionie Morza Śródziemnego doprowadziły do licznych pożarów. Na Sycylii termometry wskazały 48,8°C – najwyższą temperaturę w historii pomiarów w Europie. W tym samym czasie inne kraje Starego Kontynentu nękane były przez groźne powodzie, które doprowadziły do śmierci łącznie kilkuset osób oraz do ogromnych strat ekonomicznych. Zdaniem naukowców zmiany klimatu, z którymi mamy do czynienia, zwiększyły ryzyko pojawienia klęsk żywiołowych o ponad 20%.
W tym kontekście wydaje się oczywiste, że zmiany klimatu to jedno z największych wyzwań dla ludzkości w XXI w. Niepodważalne dane naukowe wskazują, że stoimy u progu katastrofy. Niebezpieczne zjawiska pogodowe, takie jak ulewne deszcze, powodzie, huragany, długotrwałe upały i susze, pojawiają się coraz częściej na każdej szerokości geograficznej. Klęski żywiołowe są najbardziej widocznymi, ale oczywiście nie jedynymi konsekwencja zmian klimatu. Spektrum zagrożeń z nimi związanych jest zdecydowanie szersze i dotyka niemal wszystkich sfer życia, w tym oczywiście gospodarki i sektora przedsiębiorstw.
Decyzje obecnie podejmowane przez trzech regulatorów gospodarki (tj. konsumentów, przedsiębiorstwa i państwo) zdeterminowane są dotychczasową ścieżką rozwoju, a konsekwencje tych decyzji zdecydują o sytuacji klimatycznej planety w niedalekiej przyszłości. Dlatego tak ważne jest, żebyśmy wszyscy potrafili redefiniować nasze priorytety. Musimy sobie uświadomić, że wybory podejmowane w sferze konsumpcji (indywidualnej i zbiorowej) oraz produkcji wpływają na przyszłość całej ludzkości.
Decyzje te mogą zapobiec lub przynajmniej ograniczyć skalę przyszłych zmian klimatycznych (działania te nazywane są jako mitygacją), a także dostosować zasady gospodarowania do zmieniającego się klimatu. Stawką jest nie tyle poprawa, co utrzymanie obecnego standardu życia ludzkości. Kluczową rolę mają tu do odegrania przedsiębiorstwa, które – inwestując w nowoczesne technologie, wybierając określone metody produkcji i strukturę asortymentu – mogą nie tylko ograniczyć zużycie surowców, ale także kształtować postawy i wybory konsumenckie. Innymi słowy, bez wprowadzenia zielonej transformacji firm dalszy rozwój globalnej gospodarki nie będzie możliwy.
### Bibliografia
„2019–20 Australian bushfires—frequently asked questions: a quick guide”, 2019. https://www.aph.gov.au/About_Parliament/Parliamentary_Departments/Parliamentary_Library/pubs/rp/rp1920/Quick_Guides/AustralianBushfires.
Rzeczpospolita. „2021 rok był piątym najcieplejszym rokiem w historii”, 12 styczeń 2022. https://klimat.rp.pl/planeta/art19279221-2021-rok-byl-piatym-najcieplejszym-rokiem-w-historii.
„Agricultural Risk Management in the face of climate change”. Agriculture Global Practice Discussion Paper. The World Bank Group, październik 2015. https://openknowledge.worldbank.org/handle/10986/22897.
Arriagada Borchers, Nicolas, Andrew J Palmer, David M J S Bowman, Geoffrey G Morgan, Bin B Jalaludin, i Fay H Johnston. „Unprecedented smoke- related health burden associated with the 2019–20 bushfires in eastern Australia”. The Medical journal of Australia 213, nr 6 (2020): 282–83. https://doi.org/10.5694/mja2.50545.
Eckstein, D., Künzel, V., Schäfer, L. „Global Climate Risk Index 2021”. www.germanwatch.org/en/cri
Blake, Eric S., i Ethan J. Gibney. „Deadliest, Costliest, and Most Intense United States Tropical Cyclones from1851 to 2010”. Technical Memorandum. Florida: National Weather Service National Hurricane Center, sierpień 2011.
„BP boosts its renewables business in the US with 9GW solar acquisition from 7X Energy”. BP, 1 czerwiec 2021. https://www.bp.com/en/global/corporate/news-and-insights/press-releases/bp-boosts-its-renewables-business-in-the-us-with-9gw-solar-acquisition-from-7x-energy.html.
Kim, Kyungbok, i Sang-Myung Lee. „Does Sustainability Affect Corporate Performance and Economic Development? Evidence from the Asia-Pacific Region and North America”. Sustainability 10, nr 4 (21 marzec 2018): 909. https://doi.org/10.3390/su10040909.
Morenne, Benoit, i Kevin Hand. „How Skiing Can Survive Climate Change”. The Wall Street Journal, 10 luty 2020. https://www.wsj.com/articles/how-skiing-can-survive-climate-change-11612969209.
Naumann, Gustavo, Carmelo Cammalleri, Lorenzo Mentaschi, i Luc Feyen. „Increased Economic Drought Impacts in Europe with Anthropogenic Warming”. Nature Climate Change 11, nr 6 (czerwiec 2021): 485–91. https://doi.org/10.1038/s41558-021-01044-3.
„Special Climate Statement 71 — severe fire weather conditions in southeast Queensland and northeast New South Wales in September 2019”. Australian Government Bureau of Meteorology, 2019. http://www.bom.gov.au/climate/current/statements/scs71.pdf.
Wajer, Jarosław, i Marcin Gul. „Biznes dla klimatu. Raport o zmianie priorytetów”. EY i ING, września 2021. https://www.ey.com/pl_pl/climate-change-sustainability-services/raport-ey-ing-biznes-dla-klimatu.
Weaver, David. „Can Sustainable Tourism Survive Climate Change?” Journal of Sustainable Tourism 19, nr 1 (styczeń 2011): 5–15. https://doi.org/10.1080/09669582.2010.536242.
Wobus, Cameron, Eric E. Small, Heather Hosterman, David Mills, Justin Stein, Matthew Rissing, Russell Jones, i in. „Projected Climate Change Impacts on Skiing and Snowmobiling: A Case Study of the United States”. Global Environmental Change 45 (lipiec 2017): 1–14. https://doi.org/10.1016/j.gloenvcha.2017.04.006. |
# Wpływ zmian klimatu na rozwój przedsiębiorstw
## Zmiany klimatu i ich negatywne konsekwencje
Po przeczytaniu tego podrozdziału będziesz w stanie:
1.
Wskazać na najważniejsze czynniki determinujące obecne zmiany klimatu na Ziemi
2.
Objaśnić, jakie są społeczne i gospodarcze skutki zmian klimatycznych
3.
Zrozumieć, w jaki sposób zmiany klimatu zagrażają dotychczasowej działalności przedsiębiorstw
4.
Określić, które branże zostaną w największym stopniu dotknięte zjawiskiem zmian klimatycznych
Zgodnie z najpowszechniej wykorzystywaną definicją zmiany klimatu (ang. ) to przede wszystkim cykliczne wzrosty i spadki średniej temperatury naszego globu spowodowane m.in. zmianami stężenia gazów cieplarnianych w atmosferze, cyrkulacją mas powietrza (przede wszystkim nad powierzchnią oceanów), aktywnością Słońca oraz wulkanów. Na podstawie badań prowadzonych przez paleoklimatologów wiemy, że średnie temperatury na Ziemi zmieniają się od milionów lat ().
Jeśli ktokolwiek w tym momencie pomyślał, że skoro zmiany klimatu są stałym elementem historii Ziemi, to nie ma się czym przejmować, popełnia poważny błąd wynikający z ignorowania dwóch czynników. Owszem, zmiany średniej temperatury naszego globu występowały w przeszłości, ale ich tempo w XX w. jest bezprecedensowe. Klimatolodzy nie mają wątpliwości, że tak szybki wzrost średnich temperatur na Ziemi ma silny związek z rewolucją przemysłową i wykorzystaniem przez człowieka paliw kopalnych (węgla, ropy naftowej i gazu ziemnego), których zużycie szybko zwiększa stężenie dwutlenku węgla w atmosferze. Co gorsza, proces ten cały czas przyspiesza, m.in. dlatego, że wzrost średniej temperatury na półkuli północnej powoduje topnienie wiecznej zmarzliny (tj. stale zmrożonych gruntów) na północy Azji i Ameryki Północnej, co uwalnia do atmosfery związane w niej gazy: dwutlenek węgla i metan. Ponadto kurczenie się pokrywy lodowej w Arktyce powoduje, że kula ziemska zamiast odbijać w tych miejscach promieniowanie słoneczne, zaczyna je absorbować, co dodatkowo zwiększa tempo wzrostu średnich temperatur. Wszystko to sprawia, że zdaniem klimatologów w ciągu dwóch najbliższych dekad średni wzrost temperatury może przekroczyć 1,5 °C w stosunku do okresu przedprzemysłowego. Mogłoby się wydawać, że to niewiele, ale jest to wystarczająco dużo, by spowodować gwałtowny wzrost liczby, skali i konsekwencji katastrof naturalnych zagrażających życiu, zdrowiu i mieniu nas wszystkich.
Wspomnieliśmy już, że temperatury na Ziemi fluktuują od setek milionów lat, jednak wcześniejsze zmiany klimatu występowały albo przed pojawieniem się człowieka na ziemi, albo w okresie, kiedy wytwory kultury materialnej były szczątkowe. Możemy się oczywiście pocieszać, że 500 mln lat temu średnie temperatury oceanów były o ponad 20 °C wyższe od obecnych i na Ziemi kwitło życie. Jest to jednak rozważanie prowadzące na manowce, ponieważ w tym czasie nie dość, że nie istniały jeszcze żadne miasta położone na wybrzeżach (którym zagrażałby wzrost poziomu mórz i oceanów), to po ziemi nie chodziły nawet dinozaury! Innymi słowy, jeśli nie zatrzymamy dotychczasowego trendu wzrostowego średniej temperatury naszego globu, to oczywiście Ziemia istnieć nie przestanie, natomiast ludzkość będzie miała przed sobą bardzo ponurą przyszłość.
Wyzwaniem dla klimatologów i osób, które zajmują się zjawiskiem zmian klimatycznych, jest również fakt, że wzrost średnich, globalnych temperatur nie dotyka wszystkich obszarów planety w takim samym stopniu. Co więcej, obszary, w których emisja gazów cieplarnianych jest najwyższa (uprzemysłowiona północ) nie pokrywają się z tymi, których konsekwencje tego procesu dotykają najmocniej. Nasilenie ekstremalnych zjawisk meteorologicznych (fale upałów, nawalne deszcze, susze, tropikalne cyklony itp.) największe jest w krajach Azji Południowo-Wschodniej oraz małych państwach wyspiarskich na Pacyfiku. Ze względu na specyficzne położenie i warunki geoklimatyczne posiadają one niewspółmiernie większą ekspozycję na klimatyczną katastrofę niż np. kontynent europejski. W związku z tą asymetryczną dystrybucją zagrożenia mieszkańcy krajów położonych w najbardziej uprzemysłowionych obszarach świata są – jak dotychczas – rzadziej konfrontowani z najbardziej niszczycielskimi konsekwencjami wzrostu średnich temperatur i tym samym dopiero zaczynają dostrzegać potrzebę podejmowania szybkich działań w kierunku mitygacji (ang. ) i adaptacji nadchodzących zmian.
Zmiany klimatu pociągają za sobą konkretne skutki społeczne (w tym przede wszystkim zdrowotne) i gospodarcze, takie jak: brak możliwości prowadzenia upraw w wyniku pustynnienia areałów wykorzystywanych wcześniej pod działalność rolną, wyjaławianie łowisk, nasilenie niszczycielskich zjawisk pogodowych takich jak cyklony, powodzie i susze, oraz będące ich konsekwencją ubóstwo, choroby, niepokoje społeczne i fale migracji. Pełną systematykę skutków zmian klimatu przedstawia poniższa infografika ().
Na społeczną percepcję zmian klimatycznych wpływa też charakter debaty publicznej poświęconej konsekwencjom i sposobom przeciwdziałania tym zmianom. Do lat 70. XX w. ludzkość w zasadzie nie miała świadomości wzrostu średnich temperatur, a przekonanie o nieograniczoności zasobów naturalnych było powszechne. Dominował pogląd, zgodnie z którym eksploatacja paliw kopalnych – nawet intensywna – nie oddziałuje znacząco na klimat, a ten z kolei nie stanowi zagrożenia dla ekosystemu Ziemi oraz nie wpływa na życie społeczno-gospodarcze jej mieszkańców. Jednak wzrastająca częstotliwość występowania gwałtownych zjawisk meteorologicznych zmusiła międzynarodową społeczność naukową do zajęcia się problemem zmieniającego się klimatu. Pierwsze refleksje nad wpływem człowieka na klimat pojawiły się w latach 70. XX w., kiedy to Światowa Organizacja Meteorologiczna, Program Ochrony Środowiska Narodów Zjednoczonych oraz Międzynarodowa Rada Nauki zorganizowały konferencję, w trakcie której ponad 350 specjalistów z 53 krajów, reprezentujących różne dyscypliny nauki i działy gospodarki, wspólnie ogłosiło potrzebę precyzyjnego badania klimatu oraz monitorowania poziomu i dynamiki stężeń gazów w atmosferze.
Niecałą dekadę później w kanadyjskim Toronto naukowcy całego świata wezwali rządy, organizacje międzynarodowe, ośrodki akademickie oraz organizacje samorządowe do „przedsięwzięcia konkretnych działań w celu powstrzymania kryzysu, do którego doprowadzi wzrost zanieczyszczenia atmosfery”. W tym samym 1988 roku powołano do istnienia Międzyrządowy Zespół do spraw Zmian Klimatu (IPCC), którego ustalenia zwieńczył wydany w 1990 r. raport stwierdzający, że działalność człowieka prowadzi do „znaczącego zwiększenia” stężenia gazów cieplarnianych w atmosferze. Kolejne trzy dekady wysiłków zmierzających do zrozumienia kwestii klimatycznych przyniosły stworzenie ramowej konwencji Narodów Zjednoczonych w sprawie klimatu (UNFCCC), organizowane corocznie od 1995 roku Konferencje Stron (COP), a także kolejne, coraz bardziej alarmujące raporty IPCC.
Pierwsze realne efekty dyplomacji klimatycznej doprowadziły do przyjęcia w 1997 r. przez 41 państw Organizacji Współpracy Gospodarczej i Rozwoju tzw. protokołu z Kioto, zobowiązującego kraje rozwinięte do pierwszych ograniczeń emisji gazów cieplarnianych. Protokół wszedł w życie w lutym 2005 r., lecz nie został ratyfikowany przez jednego z największych emitentów dwutlenku węgla do atmosfery, czyli Stany Zjednoczone. W kolejnych latach cykliczne konferencje COP prowadziły do wprowadzania następnych, niewielkich zmian, aż do historycznego przyjęcia, w grudniu 2015 r., tzw. porozumienia paryskiego, którego celem jest powstrzymanie wzrostu globalnej temperatury „znacznie poniżej 2°C”. Ostatni szczyt COP26 w Glasgow w 2021 r. nie przyniósł niestety rewolucyjnych deklaracji dotyczących tempa wycofywania się z wykorzystania technologii opartych na węglu, choć należy przyznać, że pojawiło się kilka cennych inicjatyw związanych z odejściem od technologii węglowych w energetyce.
Zmiany klimatu, które – jak to już zostało wskazane powyżej – w pełni zasługują na określenie kryzys klimatyczny (ang. ) w olbrzymi sposób wpływają na to, jak żyjemy i pracujemy. Z raportu opublikowanego w 2019 r. przez Międzynarodową Organizację Pracy (ILO) wynika, że do 2030 r. 80 mln miejsc pracy na całym świecie będzie zagrożonych, jeśli ziszczą się prognozy dotyczące wzrostu średnich temperatur. Zgodnie z tą prognozą nieprzyjazne środowisko wpłynie także negatywnie na samą wydajność pracy. Prawie wszystkie branże są bezpośrednio lub pośrednio zagrożone skutkami zmian klimatu. Same Stany Zjednoczone z powodu globalnego wzrostu temperatury mogą stracić 520 mld dolarów w 22 sektorach.
Analizę potencjalnych zagrożeń dla działalności przedsiębiorstw związanych ze zmianą klimatu rozpocznijmy od podziału ryzyk klimatycznych na trzy typy:
1.
materialne
2.
transformacyjne
3.
prawne
Ryzyko materialne (ang. ) związane ze zmianą klimatu są to zagrożenia bezpośrednio związane ze zjawiskami naturalnymi zachodzącymi na naszej planecie. Powodzie, cyklony, katastrofalne susze i pożary, czyli najbardziej niszczycielskie konsekwencje kryzysu klimatycznego, mogą spowodować fizyczne szkody dla ludzi, ich mienia oraz dla infrastruktury. Na przykład w latach 2000–2015 odsetek globalnej populacji zagrożonej powodziami wzrósł o blisko 25% w porównaniu z okresem 1970–2000. Ponadto Światowa Organizacja Zdrowia szacuje, że do 2030 r. ok. 700 mln ludzi będzie zagrożonych przesiedleniem w wyniku suszy. Nasilające się i występujące coraz częściej poważne zdarzenia pogodowe już dziś wywierają negatywny wpływ na działalność przedsiębiorstw. W 2017 r. w Stany Zjednoczone uderzył huragan Harvey, który spowodował szkody o wartości 125 mld dolarów. Z kolei straty spowodowane suszą, która nawiedziła UE w ostatnich latach, oszacowano na ok. 9 mld dolarów. Jeśli nie uda nam się ograniczyć tempa wzrostu średnich temperatur w Europie, straty te mogą sięgnąć poziomu 65 mld dolarów rocznie.
Na zagrożenia materialne szczególnie narażony jest przemysł rolny. Zarówno powodzie, jak i susze stanowią zagrożenie dla upraw i hodowli. Australijskie Biuro Meteorologiczne w raporcie z 2020 r. poinformowało, że w wyniku suszy spowodowanej zmieniającym się klimatem w ciągu ostatnich dwóch dekad przychody rolników spadły o ponad 23% w porównaniu ze średnimi historycznymi. W Polsce natomiast w latach 2001–2011 wskutek niekorzystnych zdarzeń pogodowych, takich jak susze i powodzie, odnotowano straty w wysokości 56 mld zł. Prognozuje się, że w przypadku niepodjęcia stosownych działań adaptacyjnych, straty te w latach 2021–2030 mogą w naszym kraju wynieść aż 120 mld zł.
Kolejnym sektorem bezpośrednio narażonym na materialne ryzyko zmian klimatycznych jest turystyka. Ośrodki narciarskie dotkliwie odczuwają skutki mniejszych opadów śniegu i związanego z tym skrócenia sezonu narciarskiego. Prognozy sporządzone na przełomie pierwszej i drugiej dekady XX w. zakładają skrócenie sezonów w amerykańskich kurortach narciarskich o połowę w perspektywie 2050 roku i aż o 80% do roku 2090. Duże i popularne regiony turystyczne w Stanach Zjednoczonych, Turcji, Portugalii czy Australii dotykane są przez pożary, huragany i ulewne deszcze. Regiony, które coraz częściej są nawiedzane przez klęski żywiołowe, przestają być bezpiecznym miejscem na wakacje, co pociąga za sobą spadek dochodów z turystyki.
Ryzyko transformacyjne) (ang. ) wynika z prognozowanego wzrostu kosztów związanego z dostosowaniem działalności przedsiębiorstw do wymogów polityki klimatycznej (np. zmiany źródeł energii, wdrożenia nowych technologii pozwalających ograniczyć emisję gazów cieplarniach itp.) czy też innych regulacji mających na celu przeciwdziałanie zmianom klimatu. Ryzyko to może również wynikać ze zmian technologii i trendów konsumenckich mogących skutkować utratą reputacji marki, gdy konsumenci stają się coraz bardziej wyczuleni na społeczne i środowiskowe aspekty odpowiedzialnego prowadzenia biznesu. Badania opinii publicznej prowadzone w krajach wysoko uprzemysłowionych wskazują, że obywatele tych państw są coraz bardziej wrażliwi na kwestie ochrony środowiska. Tendencja ta najsilniejsza jest wśród ludzi młodych, u których troska o środowisko naturalne i własną przyszłość staje się motorem zmian modeli konsumpcji. Jeżeli przedsiębiorstwa nie będą w stanie dostosować się do tego trendu, grozi im zniknięcie z rynku, szczególnie w krajach OECD.
Szczególną ekspozycję na ryzyko transformacyjne przejawiają firmy przemysłu ciężkiego, sektora wydobywczego i energetycznego, bazujące na zasobach wysokoemisyjnych (węgiel kamienny i brunatny, ropa naftowa i gaz ziemny) oraz technologiach z nimi związanych (np. pozyskiwanie ropy z piasków bitumicznych). Te trzy sektory gospodarki są odpowiedzialne za największą ilość emisji gazów cieplarnianych do atmosfery. Konieczne jest zatem przeprowadzenie zielonej transformacji tych sektorów, ograniczające ich uzależnienie od zasobów wysokoemisyjnych. W długiej perspektywie zasoby te skazane są na utratę swojej wartości, stając się tzw. aktywami osieroconymi. Niemniej jednak ekstrapolacja dotychczasowych trendów wskazuje, że całkowite odejście od paliw kopalnych w skali światowej zajmie jeszcze około 50 lat.
Problemem dla wymienionych wyżej branż, jak i dla całej gospodarki jest tak duży globalny popyt na zasoby energetyczne, że nie da się go zaspokoić wyłącznie odnawialnymi źródłami energii. W Polsce ze względu na zobowiązania związane z członkostwem naszego kraju w UE całkowite odejście od węgla jest nieuchronne, ale proces ten będzie następował stopniowo, dzięki czemu ryzyko nagłego osierocenia aktywów węglowych raczej nie nastąpi. Mimo to już dziś możemy zaobserwować malejące zainteresowanie inwestorów (w tym przede wszystkim instytucjonalnych) akcjami spółek sektora wydobywczego, ponieważ, po pierwsze, chcą oni zminimalizować straty związane ze spadkiem cen akcji, a po drugie, przykładają coraz większą wagę do posiadania wizerunku odpowiedzialnego społecznie inwestora. Warto w tym miejscu zdecydowanie podkreślić, że zwiększenie tempa transformacji ekologicznej wyżej wymienionych sektorów w dużym stopniu zależy od umiejętnego wdrażania narzędzi polityki gospodarczej (jak np. podatek węglowy; rynek praw do emisji), a także jej umiejętnej koordynacji na poziomie międzynarodowym (Polska – Unia Europejska).
Ryzyko prawne (ang. ) wynika z braku dostosowania się (lub ujawnienia działań adaptacyjnych) bądź też niestosowania się do zmieniających się wymogów prawnych i regulacyjnych. Liczba i natężenie sporów klimatycznych rośnie na całym świecie. Dzieje się tak głównie ze względu na rosnące naciski ze strony organów regulacyjnych. Jednocześnie również sami inwestorzy (posiadacze akcji) zabiegają o to, by firmy spełniały nowe, proekologiczne wymagania regulacyjne.
Firmy, które zanieczyszczają środowisko, są oczywiście w większym stopniu narażone na spory sądowe. Dotyczy to także firm, które nie podejmują działań w perspektywie długookresowej i nie uwzględniają konsekwencji zmian klimatycznych w oferowanych przez siebie dobrach i usługach (np. firmy budowlane czy deweloperzy, którzy lekceważą kwestię energooszczędności wznoszonych przez siebie budynków).
### Key Concepts and Summary
Zmiany klimatu na kuli ziemskiej przejawiają się głównie wzrostem średnich temperatur. Zjawiska te, poparte szeregiem dowodów będących pochodną interdyscyplinarnych badań naukowych, są faktem, a nie hipotezą wymagająca weryfikacji. Choć ludzkości nie uda się już odwrócić tego niekorzystnego trendu, wciąż możemy ograniczyć jego skalę. Zmiany te wywierają szereg negatywnych skutków – dla środowiska przyrodniczego, ludzi oraz ich aktywności ekonomicznej. Przedsiębiorstwa są narażone na trzy rodzaje ryzyk związanych ze zmianą klimatu. Są to ryzyko materialne, transformacyjne i ryzyko związane z odpowiedzialnością prawną. Ograniczanie tempa i skutków zmian klimatycznych stało się przedmiotem globalnej debaty publicznej stosunkowo niedawno, bo pod koniec XX w. Jednak konkretne działania będące wynikiem tej debaty zaczęto wdrażać dopiero w ciągu ostatniej dekady poprzedniego stulecia. Sprzeciw Stanów Zjednoczonych i brak ratyfikacji protokołu z Kyoto przez USA sprawił jednak, że działania te mają bardzo ograniczone skutki. Dopiero porozumienie paryskie z 2015 r. nadało nowy impuls działaniom na rzecz powstrzymania katastrofy klimatycznej. |
# Wpływ zmian klimatu na rozwój przedsiębiorstw
## Sposoby reakcji na zagrożenia związane z ryzykiem klimatycznym
Po przeczytaniu tego podrozdziału będziesz w stanie:
1.
Wyjaśnić, na czym polega adaptacja przedsiębiorstw do ryzyk klimatycznych
2.
Wskazać, jaki jest cel szacowania śladu węglowego w przedsiębiorstwach
W poprzednim podrozdziale zostały zidentyfikowane ryzyka klimatyczne związane z działalnością przedsiębiorstw w szybko zmieniającym się środowisku. Skala opisanych zagrożeń wymusiła na firmach stworzenie metod i sposobów zarządzania tymi ryzykami, które pozwalają podmiotom budować odporność na zagrożenia klimatyczne. Obejmują one trzy zasadnicze kroki: identyfikację ryzyka biznesowego i strategicznego, opracowanie szczegółowej mapy zagrożeń, i wreszcie – wdrożenie strategii adaptacji i łagodzenia zagrożeń klimatycznych
Dynamika i nieuchronność gospodarczych skutków kryzysu klimatycznego wymagają od firm zmiany sposobu zarządzania procesami adaptacji, w tym przede wszystkim zwiększania odporności na negatywne skutki zmian klimatu. Większość przedsiębiorstw działających w skali globalnej i regionalnej (czyli powyżej poziomu lokalnego) traktuje ryzyko klimatyczne jako podstawowe zagrożenie w realizacji swoich celów biznesowych. Do kluczowych elementów strategii włączają zatem mitygację tego ryzyka. Ponieważ skutki zmian klimatu i związane z nimi zagrożenia ulegają ciągłym modyfikacjom, analizy strategiczne dotyczące tych kwestii powinny być regularnie uaktualniane. Świadomość zagrożeń i ich skutków, a także regularne uaktualnianie strategicznych analiz w odpowiedzi na zmieniającą się sytuację, pozwoli firmom zaplanować oraz wdrożyć niezbędne działania adaptacyjne.
### Adaptacja przedsiębiorstw do zmian klimatu
Dostosowanie przedsiębiorstw do zachodzących zmian klimatu jest kompleksowym i często długotrwałym procesem polegającym na antycypowaniu spowodowanych nimi ograniczeń oraz nowych możliwości. Adaptacja wymaga pogłębionej refleksji nad kluczowymi kwestiami, takimi jak: zarządzanie zasobami produkcyjnymi, sam proces wytwarzania czy też reakcje i zachowania partnerów biznesowych, ze szczególnym uwzględnieniem dostawców i klientów. Może również prowadzić do identyfikacji nowych ścieżek rozwoju poprzez dostosowanie produktów i usług do dynamicznie zmieniającego się otoczenia.
Podstawą procesu adaptacji jest identyfikacja stopnia podatności/odporności przedsiębiorstwa na ryzyka klimatyczne i uwzględnienie rezultatu tejże w strategii rozwoju firmy. Tym samym stopień ekspozycji na ryzyko klimatyczne powinien stać się nieodłącznym elementem zewnętrznego wywiadu gospodarczego. Niezwykle pomocne przy realizacji tego celu mogą okazać się terytorialne analizy wrażliwości na zmiany klimatu. Jednym z najciekawszych narzędzi, które można tu wykorzystać, jest Indeks podatności na zmiany klimatu (ang. ) stworzony przez firmę doradczą Versik Maplecrost, który ocenia wrażliwość populacji na ekstremalne zdarzenia pogodowe i zmiany klimatu w ciągu najbliższych 30 lat. Uwzględnia on ekspozycję na zjawiska klimatyczne, wrażliwość na nie społeczeństw oraz zdolność poszczególnych krajów i regionów do przystosowania się do skutków zmian klimatu. Zapewniając spójną ocenę, indeks pomaga firmom oszacować ryzyko gospodarcze związane z prognozowaną zmianą klimatu.
Dzięki tego typu narzędziom można stworzyć mapy obrazujące poziom wrażliwości na zmiany klimatyczne, takie jak schemat umieszczony poniżej. Aż 67 państw zidentyfikowano jako podatne lub bardzo podatne na zmiany klimatu. Dziś kraje te wytwarzają ok. 30% światowego produktu brutto. Negatywne skutki zmian klimatu mogą jednak obniżyć ten wkład do ok. 20%, co oczywiście oznaczać będzie gwałtowny spadek poziomu życia mieszkańców tych państw. Warto zauważyć, że zmiany klimatyczne mogą pogłębić problemy związane z łańcuchem tworzenia wartości. Zakłady produkcyjne będą bowiem przenoszone z regionów podatnych do tych, w których ekspozycja jest znacznie mniejsza; w lokalizacjach podatnych na zmiany klimatu nie będą również otwierane żadne nowe zakłady wytwórcze.
Warto też zaznaczyć, że wśród państw szczególnie narażonych na zmiany klimatyczne znajdują się rynki niezwykle chłonne i dynamicznie się rozwijające, takie jak Chiny, Indie czy Nigeria. Zmiany klimatyczne, bezpośrednio dotykając populacje tych krajów (ponad 2,5 mld ludzi), bez wątpienia wymuszą działania adaptacyjne nie tylko działających na tych rynkach firm rodzimych, lecz również przedsiębiorstw zagranicznych. Tak oto zdolności adaptacyjne do zmian klimatycznych stopniowo stają się najważniejszym elementem pozycji konkurencyjnej firm na poziomie makro- i mikroekonomicznym.
Ponadto przedsiębiorstwa zainteresowane nie tylko trwaniem, ale także rozwijaniem działalności w czasach zagrożenia klimatycznego powinny priorytetowo podchodzić do kształtowania odpowiedzialnych relacji ze swoimi interesariuszami – wewnętrznymi i zewnętrznymi.
Specjaliści od zarządzania są zdania, że adaptacja do zmian klimatu nie jest problemem, który należy traktować w sposób wybiórczy, oderwany od całokształtu praktyk firmy. Musi ona stać się jednym z kluczowych elementów zarządzania. Działanie w duchu odpowiedzialności powinno oznaczać zapewnienie bezpieczeństwa pracownikom, współpracę z kontrahentami oraz – w idealnej sytuacji – koordynację podejmowanych aktywności firmy z władzami lokalnymi. Jest to niezwykle ważne zwłaszcza wtedy, gdy firma działa na obszarach podatnych na zmiany klimatu (np. w regionach przybrzeżnych, deltach rzek, strefach cyklonowych, na terenach z ograniczonym dostępem do wody, słabo rozwiniętą infrastrukturą i usługami lokalnymi). W takiej sytuacji plany adaptacyjne wymagają wzmożonej koordynacji między przedsiębiorstwami, społecznością lokalną, władzami oraz organami zajmującymi się regulacją rynków.
### Adaptacja w praktyce – od czego zacząć?
Pierwszy krokiem do podjęcia działań adaptacyjnych w przedsiębiorstwie jest przeprowadzenie bilansu emisji gazów cieplarnianych. Umożliwi on lepsze oszacowanie i monitorowanie śladu węglowego oraz zarządzanie emisją w czasie.
Pojęcie śladu węglowego (ang. ) odnosi się do ilości gazów cieplarnianych wyemitowanych w ciągu roku we wszystkich obszarach działalności firmy. W związku z tym ślad węglowy przedsiębiorstwa ujmuje pełny cykl emisyjny (ang. ), od zakupu surowców do produkcji po emisje związane z użytkowaniem produktu przez konsumenta końcowego. Obejmuje on także emisje pośrednie (ang. ), np. te związane ze zużyciem energii czy przemieszczaniem się pracowników (podróże pracownika między domem a pracą, podróże służbowe), a także te wynikające z wykorzystywania środków trwałych (powierzchnia biurowa i sprzęt komputerowy).
Nietrudno zauważyć, że wraz ze wzrostem rozmiarów przedsiębiorstwa rośnie ilość danych, które należy uwzględnić w bilansie emisji gazów cieplarnianych (ang. ). Podobne prawidłowości występują w przypadku firm zajmujących się produkcją przemysłową, a zakres danych w ich przypadku będzie znacznie większy w porównaniu z podmiotami świadczącymi usługi. Należy zauważyć, że wszystkie dane niezbędne do stworzenia bilansu emisji gazów cieplarnianych powinny być stosunkowo łatwo dostępne w każdym przedsiębiorstwie. Obecnie w Polsce są jeszcze z tym problemy. W 2022 r. przedsiębiorstwa najczęściej dysponują jedynie informacją o strukturze paliw pochodzącą od dostawców energii. Polskie firmy rzadko posiadają dane o emisjach spowodowanych swoją bezpośrednią działalnością (m.in. o emisji spalin z silników samochodowych, maszyn produkcyjnych i instalacji grzewczych oraz wyciekach gazów cieplarnianych z urządzeń chłodzących i klimatyzacji). Niemal całkowicie brakuje jeszcze danych z emisji pośrednich, czyli wszystkich innych emisji nieujętych w poprzednich dwóch kategoriach. Wymóg raportowania danych niefinansowych, obejmujący także dane nt. śladu węglowego, obejmie wszystkie przedsiębiorstwa w Unii Europejskiej od 2026 r. Zazwyczaj oszacowania śladu węglowego generowanego przez konkretne przedsiębiorstwo dokonywane są w horyzoncie rocznym. Poniższa tabela zawiera przykładowe estymacje śladu węglowego w przedsiębiorstwie produkcyjnym.
Tworzenie bilansu emisji gazów cieplarnianych i tym samym szacowanie śladu węglowego przedsiębiorstwa nie wymaga oczywiście dokładności co do grama wyemitowanego dwutlenku węgla. Służy natomiast identyfikacji tych procesów, które w największym stopniu przekładają się na wzrost emisji gazów cieplarnianych. Celem jest oczywiście redukcja tejże, która zazwyczaj jest najłatwiejsza w obszarach z największą skalą produkcji dwutlenku węgla.
Niezwykle istotną zaletą tworzenia bilansu emisji jest również wzrost świadomości ekologicznej i klimatycznej wśród właścicieli, kadry kierowniczej, pracowników i wszystkich innych interesariuszy przedsiębiorstwa. Szacując ślad węglowy, liderzy projektów biznesowych zdobywają niezbędną wiedzę o czynnikach, które w największym stopniu przyczyniają się do zmian klimatycznych, co ułatwia wdrażanie planów adaptacyjnych.
Jak widać, bilans emisji gazów cieplarnianych służący oszacowaniu śladu węglowego jest swoistym audytem ekologicznym przedsiębiorstwa, pomagającym wyznaczyć kierunki i cele transformacji firmy. Nie jest to jednak narzędzie jedyne – inne zostały przedstawione w kolejnym podrozdziale.
### Key Concepts and Summary
Szybko rosnąca skala zagrożeń klimatycznych wymusiła na przedsiębiorstwach stworzenie metod i sposobów zarządzania ryzykami związanymi ze zmianami klimatu. Narzędzia te pozwalają firmom budować odporność na zagrożenia klimatyczne. W pierwszym kroku przedsiębiorstwa muszą zidentyfikować zagrożenia dla prowadzonej przez siebie działalności, następnie opracować ich szczegółową mapę i wreszcie przygotować i wdrożyć strategię adaptacji i łagodzenia zagrożeń klimatycznych.
Adaptacja przedsiębiorstw do zmian klimatu jest kompleksowym i długotrwałym procesem polegającym na antycypowaniu ograniczeń oraz identyfikowaniu nowych możliwości, które zmiany klimatu mogą przynieść firmom. Jednym z narzędzi wykorzystywanych w tym obszarze jest The Climate Change Vulnerability Index, czyli indeks podatności na zmiany klimatu, który ocenia wrażliwość populacji na ekstremalne zdarzenia pogodowe i zmiany klimatu w ciągu najbliższych 30 lat. Innym – bilans emisji gazów cieplarnianych i szacowanie śladu węglowego. |
# Wpływ zmian klimatu na rozwój przedsiębiorstw
## Zrównoważony ład korporacyjny i ESG
Po przeczytaniu tego podrozdziału będziesz w stanie:
1.
Scharakteryzować kryteria ESG
2.
Objaśnić, czym są z zrównoważone instrumenty finansowe (obligacje, pożyczki oraz aktywa finansowe)
Wraz z wprowadzaniem na poziomie krajowym rekomendacji wynikających z porozumienia paryskiego coraz popularniejszym narzędziem stosowanym w przedsiębiorstwach jest tzw. zrównoważony ład korporacyjny (ang. ), oparty na kryteriach ESG (ang. ). Kryteria ESG to zestaw standardów umożliwiających ewaluację bilansu ekologicznego działalności przedsiębiorstw poprzez pomiar i ocenę niefinansowych danych środowiskowych, społecznych i zarządczych (patrz Rysunek 1). Ocena tychże danych jest oparta na metodologii wskaźnikowej, która pozwala ustalić, jak firma plasuje się w poszczególnych kategoriach (czyli np.: jaki ma ślad węglowy; czy dba o dobrostan pracowników, czy poprzez swoją działalność wywiera pożądany i pozytywny wpływ na społeczność lokalną).
Niestety wciąż nie istnieją globalne wytyczne dotyczące zbierania i raportowania wskaźników ESG (np. instytucjom nadzorującym rynki kapitałowe lub urzędom zajmującym się nadzorowaniem konkretnych rynków lub ochroną antymonopolową). W konsekwencji nie ma jednolitych standardów, co uniemożliwia wiarygodne porównanie przedsiębiorstw działających (lub dokładniej: mających siedziby) w różnych krajach.
W niektórych krajach (np. USA i Wielkiej Brytanii) w ramach oddolnych inicjatyw zmierzających do wypracowania katalogu dobrych praktyk w obszarze raportowania ESG osiągnięto pewne sukcesy, jednak brak harmonizacji dotyczącej „zielonej” taksonomii oraz sprawozdawczości w skali globalnej stwarza przestrzeń dla rozbieżnych interpretacji. Niejednokrotnie prowadzą one do nadużyć, gdy pewne praktyki kwalifikowane są jako zgodne z pryncypiami ESG, mimo że w rzeczywistości nie mają z nimi wiele wspólnego. Tam, gdzie nie obowiązują jednolite ustalenia dotyczące kryteriów ESG, część przedsiębiorstw oraz firm doradczych stosuje je w sposób niezwykle swobodny. W Unii Europejskiej wciąż nie zostały sformułowane spójne wytyczne dotyczące raportowania niefinansowych danych z obszaru kryteriów ESG, chociaż wprowadzenie tego typu regulacji jest już zapowiadane od kilku lat.
Pamiętać należy, że podstawowym obszarem wykorzystania kryteriów ESG jest wsparcie inwestorów w ocenie historycznych wyników oraz perspektyw rozwoju przedsiębiorstw. Jednocześnie kryteria te stanowią dla przedsiębiorstw swoisty kierunkowskaz, który wskazuje na sposoby tworzenia i wdrażania strategii zrównoważonego rozwoju.
Ocena działalności przedsiębiorstw przy użyciu wskaźników ESG jest niewątpliwie ważnym elementem pozwalającym firmom na lepszą adaptację do wszystkich klimatycznych ryzyk. Jednocześnie jednak każda zmiana, adaptacja i transformacja pociąga za sobą wymierne koszty, a dostosowanie organizacji do wyzwań klimatycznych może stanowić poważne obciążenie finansowe dla firm. Zastanówmy się zatem, w jaki sposób firmy mogą pozyskać fundusze na klimatyczną transformację.
### Wymiar finansowy transformacji klimatycznej przedsiębiorstw
We wszystkich sektorach gospodarki obserwujemy zainteresowanie inwestorów przedsiębiorstwami, które respektują zalecenia ESG i adaptują się do nowej klimatycznej rzeczywistości. Tym samym widoczna jest także zasadnicza zmiana w podejściu inwestorów do inwestycji, decyzje o kierunkach inwestycji podejmowane są nie tylko w oparciu o kryterium maksymalizacji stopy zwrotu z inwestycji lecz także z troską o ich skutki środowiskowe i społeczne. Inwestowanie wg kryteriów ESG jest dziś związane przede wszystkim z lokowaniem kapitału w zrównoważone obligacje (ang. ), zrównoważone pożyczki (ang. ) oraz zrównoważone aktywa finansowe (ang. ). Wszystkie te grupy produktów posiadają cechę wspólną: kapitał pozyskany przy ich użyciu powinien zostać spożytkowany zgodnie z celami zrównoważonego rozwoju przedsiębiorstw. Dla przykładu, kapitał pozyskany dzięki emisji zielonych obligacji pozwala finansować przedsięwzięcia związane m.in. z transformacją energetyczną, czy też z przyjaznym środowisku transportem.
Co ciekawe, pierwsze emisje zielonych obligacji były wyłączną domeną organizacji międzynarodowych (pierwsze zrównoważone obligacje zostały wyemitowane przez Europejski Banku Inwestycyjny w 2007 r.); dziś w emisję tych instrumentów włączają się w coraz większym stopniu przedsiębiorstwa, szczególnie duże firmy, co przedstawia .
W 2018 r. wartość emisji zielonych obligacji przekroczyła 180 mld dol., a skumulowana wartość światowego portfela zrównoważonych produktów finansowych osiągnęła pułap 23 bln dol. (wzrost o 25% w porównaniu z rokiem 2014). Większość zielonych obligacji denominowanych jest w trzech walutach: dol. amerykańskich, euro oraz chińskim renminbi (juanach).
Szczególnie warto podkreślić, że zielone obligacje emitowane w amerykańskich dolarach charakteryzują się wyższymi stopami zwrotu niż ich tradycyjne odpowiedniki. Co ciekawe, te denominowane w euro już nie są tak atrakcyjne i może świadczyć to o skłonności inwestorów w Europie do większej dywersyfikacji ryzyka portfela inwestycyjnego przez łączenie produktów tradycyjnych oraz zrównoważonych, co przedstawia .
Wypracowane przez emitentów obligacji standardy emisji znacząco wpłynęły na wzrost przejrzystości transakcji, głównie dzięki wymogowi niezależnego przedemisyjnego audytu – tzw. drugiej opinii (ang. ). Jednocześnie należy pamiętać, że pozyskiwanie kapitału poprzez emisję obligacji jest wygodnym narzędziem dla dużych firm. W przypadku przedsiębiorstw małych i średnich emisja obligacji nie jest ekonomicznie opłacalna z powodu dość wysokich kosztów transakcyjnych tej operacji.
Odpowiednim rozwiązaniem dla tej grupy przedsiębiorstw wydają się zrównoważone pożyczki (charakteryzujące się niskim oprocentowaniem i długim okresem kredytowania) oraz wszelkiego rodzaju wsparcie publiczne (granty, subsydia, obniżki podatków). W przypadku inwestorów poszukujących większej dywersyfikacji portfela zrównoważone indeksy giełdowe stają się coraz bardziej popularną opcją, a także metodą na klimatyczny hedging (ang. ). Klimatyczne aktywa charakteryzują się niższą stopą zwrotu z inwestycji w porównaniu do stopy zwrotu oferowanej przez rynek w okresie, w którym klimat jest względnie stabilny, natomiast w momencie, w którym zmiany klimatu stają się coraz szybsze, ich stopa zwrotu jest wyższa od rynkowej, co sprawia, że ten typ inwestycji może być swoistym ubezpieczeniem od klęski klimatycznej.
Jak już wspominaliśmy wcześniej, w świecie zrównoważonych finansów wciąż nie ma powszechnie obowiązujących zasad i definicji. Z tego też względu inwestorzy – także ci instytucjonalni – nie zawsze potrafią we właściwy sposób klasyfikować oferowanych im produktów inwestycyjnych. A to stwarza ryzyko tzw. greenwashingu, czyli tworzenia produktów, które są „zielone” tylko z nazwy. Jest to kolejny asumpt do tego, aby wdrożyć tak w Unii Europejskiej, jak i w skali globalnej jednolitą taksonomię zrównoważonych inwestycji.
Mierzące się z szybko narastającymi zmianami klimatycznymi przedsiębiorstwa – aby zrealizować postawione im przez właścicieli i inwestorów cele – muszą wejść na ścieżkę zrównoważonego, przede wszystkim społecznie i środowiskowo, rozwoju. Nie jest to zadanie łatwe, jednak kierując się wskazówkami ESG oraz adaptując się do tworzonych w ramach polityki klimatycznej państwa mechanizmów wsparcia wiele firm już potrafi zmienić klimatyczne ryzyko w biznesową szansę. Niezależnie bowiem od tego, że wdrażanie zielonych rozwiązań stanowi poważne obciążenie finansowe i organizacyjne, to korzyści długookresowe związane z tą zmianą rekompensują poniesione koszty. Korzyści długookresowe to nie tylko zmiany wizerunkowe i poprawa pozycji konkurencyjnej, ale przede wszystkim satysfakcjonujące wyniki finansowe. Ponadto malejące z czasem koszty wdrażanie nowych technologii ułatwią zieloną transformację.
Światowi liderzy zmian, firmy, które jako pierwsze zdecydowały się na wdrażanie strategii opartych na kryteriach ESG już dziś zaczynają otrzymywać od klientów swoistą premię za ryzyko w postaci większego zaufania i szerszego dostępu do preferencyjnych źródeł finansowania. Pionierzy, którzy w konsekwentny sposób zmieniają kulturę organizacyjną, stymulują wzrost stopnia identyfikacji pracowników z organizacją, dzięki czemu zielona zmiana jest szybciej przyjmowana na wszystkich szczeblach, a całość działań, od poziomu strategii do poziomu operacyjnego funkcjonuje w sposób spójny.
Pamiętać również należy, że tempo wdrażania nowej strategii w przedsiębiorstwach nie może być wolniejsze od szybko rosnącej świadomości ekologicznej i poczucia odpowiedzialności za przyszłość naszej planety wśród potencjalnych klientów. Zmiany postaw konsumenckich są z kolei pochodną odpowiedzialnej polityki gospodarczej realizowanej przez państwo, które za swój cel powinno postawić edukację obywateli. Przez swoje wybory konsumpcyjne mogą oni stymulować i zachęcać przedsiębiorstwa do oferowania im produktów, których wytworzenie i konsumpcja nie uszczuplą dobrostanu materialnego i środowiskowego przyszłych pokoleń.
### Podsumowanie
Kryteria ESG, czyli zestaw standardów umożliwiających ocenę tego, jak zbilansowana ekologicznie jest działalności przedsiębiorstwa, są narzędziem umożliwiającym wprowadzanie w firmach zrównoważonego ładu korporacyjnego. Brak jednolitych w skali globalnej wytycznych dotyczących zbierania i raportowania wskaźników ESG uniemożliwia wiarygodne porównanie przedsiębiorstw działających w różnych krajach. W konsekwencji pewne praktyki kwalifikowane są jako zgodne z pryncypiami zrównoważonego rozwoju i opisywane za pomocą ESG, w rzeczywistości nie mają ze zrównoważonym rozwojem wiele wspólnego. Jest to jedno ze źródeł greenwashingu.
Dzięki wdrażaniu ładu korporacyjnego opartego na kryteriach ESG inwestorzy coraz chętniej lokują kapitał w zrównoważone obligacje, zrównoważone pożyczki oraz zrównoważone aktywa finansowe. Wszystkie te grupy produktów posiadają cechę wspólną: kapitał pozyskany przy ich użyciu powinien zostać spożytkowany zgodnie z celami zrównoważonego rozwoju przedsiębiorstw. Wypracowane przez emitentów obligacji standardy emisji znacząco wpłynęły na wzrost przejrzystości transakcji, głównie dzięki wymogowi niezależnego przedemisyjnego audytu.
### Pytania sprawdzające
### Sprawdź wiedzę
### Ćwicz myślenie krytyczne
|
# [A Byte of Python](https://python.swaroopch.com/)
# Control Flow
In the programs we have seen till now, there has always been a series of statements faithfully executed by Python in exact top-down order. What if you wanted to change the flow of how it works? For example, you want the program to take some decisions and do different things depending on different situations, such as printing 'Good Morning' or 'Good Evening' depending on the time of the day?
As you might have guessed, this is achieved using control flow statements. There are three control flow statements in Python - `if`, `for` and `while`.
## The `if` statement
The `if` statement is used to check a condition: *if* the condition is true, we run a block of statements (called the _if-block_), *else* we process another block of statements (called the _else-block_). The *else* clause is optional.
Example (save as `if.py`):
<!-- Tags expansion does not happen inside code blocks https://github.com/GitbookIO/gitbook/issues/707 -->
<pre><code class="lang-python">number = 23
guess = int(input('Enter an integer : '))
if guess == number:
# New block starts here
print('Congratulations, you guessed it.')
print('(but you do not win any prizes!)')
# New block ends here
elif guess < number:
# Another block
print('No, it is a little higher than that')
# You can do whatever you want in a block ...
else:
print('No, it is a little lower than that')
# you must have guessed > number to reach here
print('Done')
# This last statement is always executed,
# after the if statement is executed.
</code></pre>
Output:
<pre><code>$ python if.py
Enter an integer : 50
No, it is a little lower than that
Done
$ python if.py
Enter an integer : 22
No, it is a little higher than that
Done
$ python if.py
Enter an integer : 23
Congratulations, you guessed it.
(but you do not win any prizes!)
Done
</code></pre>
**How It Works**
In this program, we take guesses from the user and check if it is the number that we have. We set the variable `number` to any integer we want, say `23`. Then, we take the user's guess using the `input()` function. Functions are just reusable pieces of programs. We'll read more about them in the next chapter.
We supply a string to the built-in `input` function which prints it to the screen and waits for input from the user. Once we enter something and press kbd:[enter] key, the `input()` function returns what we entered, as a string. We then convert this string to an integer using `int` and then store it in the variable `guess`. Actually, the `int` is a class but all you need to know right now is that you can use it to convert a string to an integer (assuming the string contains a valid integer in the text).
Next, we compare the guess of the user with the number we have chosen. If they are equal, we print a success message. Notice that we use indentation levels to tell Python which statements belong to which block. This is why indentation is so important in Python. I hope you are sticking to the "consistent indentation" rule. Are you?
Notice how the `if` statement contains a colon at the end - we are indicating to Python that a block of statements follows.
Then, we check if the guess is less than the number, and if so, we inform the user that they must guess a little higher than that. What we have used here is the `elif` clause which actually combines two related `if else-if else` statements into one combined `if-elif-else` statement. This makes the program easier and reduces the amount of indentation required.
The `elif` and `else` statements must also have a colon at the end of the logical line followed by their corresponding block of statements (with proper indentation, of course)
You can have another `if` statement inside the if-block of an `if` statement and so on - this is called a nested `if` statement.
Remember that the `elif` and `else` parts are optional. A minimal valid `if` statement is:
```python
if True:
print('Yes, it is true')
```
After Python has finished executing the complete `if` statement along with the associated `elif` and `else` clauses, it moves on to the next statement in the block containing the `if` statement. In this case, it is the main block (where execution of the program starts), and the next statement is the `print('Done')` statement. After this, Python sees the ends of the program and simply finishes up.
Even though this is a very simple program, I have been pointing out a lot of things that you should notice. All these are pretty straightforward (and surprisingly simple for those of you from C/C++ backgrounds). You will need to become aware of all these things initially, but after some practice you will become comfortable with them, and it will all feel 'natural' to you.
> **Note for C/C++ Programmers**
>
> There is no `switch` statement in Python. You can use an `if..elif..else` statement to do the same thing (and in some cases, use a dictionary to do it quickly)
## The while Statement
The `while` statement allows you to repeatedly execute a block of statements as long as a condition is true. A `while` statement is an example of what is called a *looping* statement. A `while` statement can have an optional `else` clause.
Example (save as `while.py`):
<pre><code class="lang-python">number = 23
running = True
while running:
guess = int(input('Enter an integer : '))
if guess == number:
print('Congratulations, you guessed it.')
# this causes the while loop to stop
running = False
elif guess < number:
print('No, it is a little higher than that.')
else:
print('No, it is a little lower than that.')
else:
print('The while loop is over.')
# Do anything else you want to do here
print('Done')
</code></pre>
Output:
<pre><code>$ python while.py
Enter an integer : 50
No, it is a little lower than that.
Enter an integer : 22
No, it is a little higher than that.
Enter an integer : 23
Congratulations, you guessed it.
The while loop is over.
Done
</code></pre>
**How It Works**
In this program, we are still playing the guessing game, but the advantage is that the user is allowed to keep guessing until he guesses correctly - there is no need to repeatedly run the program for each guess, as we have done in the previous section. This aptly demonstrates the use of the `while` statement.
We move the `input` and `if` statements to inside the `while` loop and set the variable `running` to `True` before the while loop. First, we check if the variable `running` is `True` and then proceed to execute the corresponding *while-block*. After this block is executed, the condition is again checked which in this case is the `running` variable. If it is true, we execute the while-block again, else we continue to execute the optional else-block and then continue to the next statement.
The `else` block is executed when the `while` loop condition becomes `False` - this may even be the first time that the condition is checked. If there is an `else` clause for a `while` loop, it is always executed unless you break out of the loop with a `break` statement.
The `True` and `False` are called Boolean types and you can consider them to be equivalent to the value `1` and `0` respectively.
> **Note for C/C++ Programmers**
>
> Remember that you can have an `else` clause for the `while` loop.
## The `for` loop
The `for..in` statement is another looping statement which *iterates* over a sequence of objects i.e. go through each item in a sequence. We will see more about sequences in detail in later chapters. What you need to know right now is that a sequence is just an ordered collection of items.
Example (save as `for.py`):
<pre><code class="lang-python">for i in range(1, 5):
print(i)
else:
print('The for loop is over')
</code></pre>
Output:
<pre><code>$ python for.py
1
2
3
4
The for loop is over
</code></pre>
**How It Works**
In this program, we are printing a *sequence* of numbers. We generate this sequence of numbers using the built-in `range` function.
What we do here is supply it two numbers and `range` returns a sequence of numbers starting from the first number and up to the second number. For example, `range(1,5)` gives the sequence `[1, 2, 3, 4]`. By default, `range` takes a step count of 1. If we supply a third number to `range`, then that becomes the step count. For example, `range(1,5,2)` gives `[1,3]`. Remember that the range extends *up to* the second number i.e. it does *not* include the second number.
Note that `range()` generates only one number at a time, if you want the full list of numbers, call `list()` on the `range()`, for example, `list(range(5))` will result in `[0, 1, 2, 3, 4]`. Lists are explained in the data structures chapter.
The `for` loop then iterates over this range - `for i in range(1,5)` is equivalent to `for i in [1, 2, 3, 4]` which is like assigning each number (or object) in the sequence to i, one at a time, and then executing the block of statements for each value of `i`. In this case, we just print the value in the block of statements.
Remember that the `else` part is optional. When included, it is always executed once after the `for` loop is over unless a break statement is encountered.
Remember that the `for..in` loop works for any sequence. Here, we have a list of numbers generated by the built-in `range` function, but in general we can use any kind of sequence of any kind of objects! We will explore this idea in detail in later chapters.
> **Note for C/C++/Java/C# Programmers**
>
> The Python `for` loop is radically different from the C/C++ `for` loop. C# programmers will note that the `for` loop in Python is similar to the `foreach` loop in C#. Java programmers will note that the same is similar to `for (int i : IntArray)` in Java 1.5.
>
> In C/C++, if you want to write `for (int i = 0; i < 5; i++)`, then in Python you write just `for i in range(0,5)`. As you can see, the `for` loop is simpler, more expressive and less error prone in Python.
## The break Statement
The `break` statement is used to *break* out of a loop statement i.e. stop the execution of a looping statement, even if the loop condition has not become `False` or the sequence of items has not been completely iterated over.
An important note is that if you *break* out of a `for` or `while` loop, any corresponding loop `else` block is **not** executed.
Example (save as `break.py`):
<pre><code class="lang-python">while True:
s = input('Enter something : ')
if s == 'quit':
break
print('Length of the string is', len(s))
print('Done')
</code></pre>
Output:
<pre><code>$ python break.py
Enter something : Programming is fun
Length of the string is 18
Enter something : When the work is done
Length of the string is 21
Enter something : if you wanna make your work also fun:
Length of the string is 37
Enter something : use Python!
Length of the string is 11
Enter something : quit
Done
</code></pre>
**How It Works**
In this program, we repeatedly take the user's input and print the length of each input each
time. We are providing a special condition to stop the program by checking if the user input is
`'quit'`. We stop the program by *breaking* out of the loop and reach the end of the program.
The length of the input string can be found out using the built-in `len` function.
Remember that the `break` statement can be used with the `for` loop as well.
**Swaroop's Poetic Python**
The input I have used here is a mini poem I have written:
```
Programming is fun
When the work is done
if you wanna make your work also fun:
use Python!
```
## The `continue` Statement
The `continue` statement is used to tell Python to skip the rest of the statements in the current loop block and to *continue* to the next iteration of the loop.
Example (save as `continue.py`):
<pre><code class="lang-python">while True:
s = input('Enter something : ')
if s == 'quit':
break
if len(s) < 3:
print('Too small')
continue
print('Input is of sufficient length')
# Do other kinds of processing here...
</code></pre>
Output:
<pre><code>$ python continue.py
Enter something : a
Too small
Enter something : 12
Too small
Enter something : abc
Input is of sufficient length
Enter something : quit
</code></pre>
**How It Works**
In this program, we accept input from the user, but we process the input string only if it is at least 3 characters long. So, we use the built-in `len` function to get the length and if the length is less than 3, we skip the rest of the statements in the block by using the `continue` statement. Otherwise, the rest of the statements in the loop are executed, doing any kind of processing we want to do here.
Note that the `continue` statement works with the `for` loop as well.
## Summary
We have seen how to use the three control flow statements - `if`, `while` and `for` along with their associated `break` and `continue` statements. These are some of the most commonly used parts of Python and hence, becoming comfortable with them is essential.
Next, we will see how to create and use functions.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Data Structures
Data structures are basically just that - they are *structures* which can hold some *data* together. In other words, they are used to store a collection of related data.
There are four built-in data structures in Python - _list, tuple, dictionary and set_. We will see how to use each of them and how they make life easier for us.
## List
A `list` is a data structure that holds an ordered collection of items i.e. you can store a *sequence* of items in a list. This is easy to imagine if you can think of a shopping list where you have a list of items to buy, except that you probably have each item on a separate line in your shopping list whereas in Python you put commas in between them.
The list of items should be enclosed in square brackets so that Python understands that you are specifying a list. Once you have created a list, you can add, remove or search for items in the list. Since we can add and remove items, we say that a list is a *mutable* data type i.e. this type can be altered.
## Quick Introduction To Objects And Classes
Although I've been generally delaying the discussion of objects and classes till now, a little explanation is needed right now so that you can understand lists better. We will explore this topic in detail in a later chapter.
A list is an example of usage of objects and classes. When we use a variable `i` and assign a value to it, say integer `5` to it, you can think of it as creating an *object* (i.e. instance) `i` of *class* (i.e. type) `int`. In fact, you can read `help(int)` to understand this better.
A class can also have *methods* i.e. functions defined for use with respect to that class only. You can use these pieces of functionality only when you have an object of that class. For example, Python provides an `append` method for the `list` class which allows you to add an item to the end of the list. For example, `mylist.append('an item')` will add that string to the list `mylist`. Note the use of dotted notation for accessing methods of the objects.
A class can also have *fields* which are nothing but variables defined for use with respect to that class only. You can use these variables/names only when you have an object of that class. Fields are also accessed by the dotted notation, for example, `mylist.field`.
Example (save as `ds_using_list.py`):
<pre><code class="lang-python"># This is my shopping list
shoplist = ['apple', 'mango', 'carrot', 'banana']
print('I have', len(shoplist), 'items to purchase.')
print('These items are:', end=' ')
for item in shoplist:
print(item, end=' ')
print('\nI also have to buy rice.')
shoplist.append('rice')
print('My shopping list is now', shoplist)
print('I will sort my list now')
shoplist.sort()
print('Sorted shopping list is', shoplist)
print('The first item I will buy is', shoplist[0])
olditem = shoplist[0]
del shoplist[0]
print('I bought the', olditem)
print('My shopping list is now', shoplist)
</code></pre>
Output:
<pre><code>$ python ds_using_list.py
I have 4 items to purchase.
These items are: apple mango carrot banana
I also have to buy rice.
My shopping list is now ['apple', 'mango', 'carrot', 'banana', 'rice']
I will sort my list now
Sorted shopping list is ['apple', 'banana', 'carrot', 'mango', 'rice']
The first item I will buy is apple
I bought the apple
My shopping list is now ['banana', 'carrot', 'mango', 'rice']
</code></pre>
**How It Works**
The variable `shoplist` is a shopping list for someone who is going to the market. In `shoplist`, we only store strings of the names of the items to buy but you can add _any kind of object_ to a list including numbers and even other lists.
We have also used the `for..in` loop to iterate through the items of the list. By now, you must have realised that a list is also a sequence. The speciality of sequences will be discussed in a later section.
Notice the use of the `end` parameter in the call to `print` function to indicate that we want to end the output with a space instead of the usual line break.
Next, we add an item to the list using the `append` method of the list object, as already discussed before. Then, we check that the item has been indeed added to the list by printing the contents of the list by simply passing the list to the `print` function which prints it neatly.
Then, we sort the list by using the `sort` method of the list. It is important to understand that this method affects the list itself and does not return a modified list - this is different from the way strings work. This is what we mean by saying that lists are _mutable_ and that strings are _immutable_.
Next, when we finish buying an item in the market, we want to remove it from the list. We achieve this by using the `del` statement. Here, we mention which item of the list we want to remove and the `del` statement removes it from the list for us. We specify that we want to remove the first item from the list and hence we use `del shoplist[0]` (remember that Python starts counting from 0).
If you want to know all the methods defined by the list object, see `help(list)` for details.
## Tuple
Tuples are used to hold together multiple objects. Think of them as similar to lists, but without the extensive functionality that the list class gives you. One major feature of tuples is that they are *immutable* like strings i.e. you cannot modify tuples.
Tuples are defined by specifying items separated by commas within an optional pair of parentheses.
Tuples are usually used in cases where a statement or a user-defined function can safely assume that the collection of values (i.e. the tuple of values used) will not change.
Example (save as `ds_using_tuple.py`):
<pre><code class="lang-python"># I would recommend always using parentheses
# to indicate start and end of tuple
# even though parentheses are optional.
# Explicit is better than implicit.
zoo = ('python', 'elephant', 'penguin')
print('Number of animals in the zoo is', len(zoo))
new_zoo = 'monkey', 'camel', zoo # parentheses not required but are a good idea
print('Number of cages in the new zoo is', len(new_zoo))
print('All animals in new zoo are', new_zoo)
print('Animals brought from old zoo are', new_zoo[2])
print('Last animal brought from old zoo is', new_zoo[2][2])
print('Number of animals in the new zoo is',
len(new_zoo)-1+len(new_zoo[2]))
</code></pre>
Output:
<pre><code>$ python ds_using_tuple.py
Number of animals in the zoo is 3
Number of cages in the new zoo is 3
All animals in new zoo are ('monkey', 'camel', ('python', 'elephant', 'penguin'))
Animals brought from old zoo are ('python', 'elephant', 'penguin')
Last animal brought from old zoo is penguin
Number of animals in the new zoo is 5
</code></pre>
**How It Works**
The variable `zoo` refers to a tuple of items. We see that the `len` function can be used to get the length of the tuple. This also indicates that a tuple is a sequence as well.
We are now shifting these animals to a new zoo since the old zoo is being closed. Therefore, the `new_zoo` tuple contains some animals which are already there along with the animals brought over from the old zoo. Back to reality, note that a tuple within a tuple does not lose its identity.
We can access the items in the tuple by specifying the item's position within a pair of square brackets just like we did for lists. This is called the _indexing_ operator. We access the third item in `new_zoo` by specifying `new_zoo[2]` and we access the third item within the third item in the `new_zoo` tuple by specifying `new_zoo[2][2]`. This is pretty simple once you've understood the idiom.
> **Tuple with 0 or 1 items**
>
> An empty tuple is constructed by an empty pair of parentheses such as `myempty = ()`. However, a tuple with a single item is not so simple. You have to specify it using a comma following the first (and only) item so that Python can differentiate between a tuple and a pair of parentheses surrounding the object in an expression i.e. you have to specify `singleton = (2 , )` if you mean you want a tuple containing the item `2`.
<!-- -->
> **Note for Perl programmers**
>
> A list within a list does not lose its identity i.e. lists are not flattened as in Perl. The same applies to a tuple within a tuple, or a tuple within a list, or a list within a tuple, etc. As far as Python is concerned, they are just objects stored using another object, that's all.
## Dictionary
A dictionary is like an address-book where you can find the address or contact details of a person by knowing only his/her name i.e. we associate *keys* (name) with *values* (details). Note that the key must be unique just like you cannot find out the correct information if you have two persons with the exact same name.
Note that you can use only immutable objects (like strings) for the keys of a dictionary but you can use either immutable or mutable objects for the values of the dictionary. This basically translates to say that you should use only simple objects for keys.
Pairs of keys and values are specified in a dictionary by using the notation `d = {key1 : value1, key2 : value2 }`. Notice that the key-value pairs are separated by a colon and the pairs are separated themselves by commas and all this is enclosed in a pair of curly braces.
Remember that key-value pairs in a dictionary are not ordered in any manner. If you want a particular order, then you will have to sort them yourself before using it.
The dictionaries that you will be using are instances/objects of the `dict` class.
Example (save as `ds_using_dict.py`):
<pre><code class="lang-python"># 'ab' is short for 'a'ddress'b'ook
ab = {
'Swaroop': '[email protected]',
'Larry': '[email protected]',
'Matsumoto': '[email protected]',
'Spammer': '[email protected]'
}
print("Swaroop's address is", ab['Swaroop'])
# Deleting a key-value pair
del ab['Spammer']
print('\nThere are {} contacts in the address-book\n'.format(len(ab)))
for name, address in ab.items():
print('Contact {} at {}'.format(name, address))
# Adding a key-value pair
ab['Guido'] = '[email protected]'
if 'Guido' in ab:
print("\nGuido's address is", ab['Guido'])
</code></pre>
Output:
<pre><code>$ python ds_using_dict.py
Swaroop's address is [email protected]
There are 3 contacts in the address-book
Contact Swaroop at [email protected]
Contact Matsumoto at [email protected]
Contact Larry at [email protected]
Guido's address is [email protected]
</code></pre>
**How It Works**
We create the dictionary `ab` using the notation already discussed. We then access key-value pairs by specifying the key using the indexing operator as discussed in the context of lists and tuples. Observe the simple syntax.
We can delete key-value pairs using our old friend - the `del` statement. We simply specify the dictionary and the indexing operator for the key to be removed and pass it to the `del` statement. There is no need to know the value corresponding to the key for this operation.
Next, we access each key-value pair of the dictionary using the `items` method of the dictionary which returns a list of tuples where each tuple contains a pair of items - the key followed by the value. We retrieve this pair and assign it to the variables `name` and `address` correspondingly for each pair using the `for..in` loop and then print these values in the for-block.
We can add new key-value pairs by simply using the indexing operator to access a key and assign that value, as we have done for Guido in the above case.
We can check if a key-value pair exists using the `in` operator.
For the list of methods of the `dict` class, see `help(dict)`.
> **Keyword Arguments and Dictionaries**
>
> If you have used keyword arguments in your functions, you have already used dictionaries! Just think about it - the key-value pair is specified by you in the parameter list of the function definition and when you access variables within your function, it is just a key access of a dictionary (which is called the _symbol table_ in compiler design terminology).
## Sequence
Lists, tuples and strings are examples of sequences, but what are sequences and what is so special about them?
The major features are *membership tests*, (i.e. the `in` and `not in` expressions) and *indexing operations*, which allow us to fetch a particular item in the sequence directly.
The three types of sequences mentioned above - lists, tuples and strings, also have a *slicing* operation which allows us to retrieve a slice of the sequence i.e. a part of the sequence.
Example (save as `ds_seq.py`):
<pre><code class="lang-python">shoplist = ['apple', 'mango', 'carrot', 'banana']
name = 'swaroop'
# Indexing or 'Subscription' operation #
print('Item 0 is', shoplist[0])
print('Item 1 is', shoplist[1])
print('Item 2 is', shoplist[2])
print('Item 3 is', shoplist[3])
print('Item -1 is', shoplist[-1])
print('Item -2 is', shoplist[-2])
print('Character 0 is', name[0])
# Slicing on a list #
print('Item 1 to 3 is', shoplist[1:3])
print('Item 2 to end is', shoplist[2:])
print('Item 1 to -1 is', shoplist[1:-1])
print('Item start to end is', shoplist[:])
# Slicing on a string #
print('characters 1 to 3 is', name[1:3])
print('characters 2 to end is', name[2:])
print('characters 1 to -1 is', name[1:-1])
print('characters start to end is', name[:])
</code></pre>
Output:
<pre><code>$ python ds_seq.py
Item 0 is apple
Item 1 is mango
Item 2 is carrot
Item 3 is banana
Item -1 is banana
Item -2 is carrot
Character 0 is s
Item 1 to 3 is ['mango', 'carrot']
Item 2 to end is ['carrot', 'banana']
Item 1 to -1 is ['mango', 'carrot']
Item start to end is ['apple', 'mango', 'carrot', 'banana']
characters 1 to 3 is wa
characters 2 to end is aroop
characters 1 to -1 is waroo
characters start to end is swaroop
</code></pre>
**How It Works**
First, we see how to use indexes to get individual items of a sequence. This is also referred to as the _subscription operation_. Whenever you specify a number to a sequence within square brackets as shown above, Python will fetch you the item corresponding to that position in the sequence. Remember that Python starts counting numbers from 0. Hence, `shoplist[0]` fetches the first item and `shoplist[3]` fetches the fourth item in the `shoplist` sequence.
The index can also be a negative number, in which case, the position is calculated from the end of the sequence. Therefore, `shoplist[-1]` refers to the last item in the sequence and `shoplist[-2]` fetches the second last item in the sequence.
The slicing operation is used by specifying the name of the sequence followed by an optional pair of numbers separated by a colon within square brackets. Note that this is very similar to the indexing operation you have been using till now. Remember the numbers are optional but the colon isn't.
The first number (before the colon) in the slicing operation refers to the position from where the slice starts and the second number (after the colon) indicates where the slice will stop at. If the first number is not specified, Python will start at the beginning of the sequence. If the second number is left out, Python will stop at the end of the sequence. Note that the slice returned _starts_ at the start position and will end just before the _end_ position i.e. the start position is included but the end position is excluded from the sequence slice.
Thus, `shoplist[1:3]` returns a slice of the sequence starting at position 1, includes position 2 but stops at position 3 and therefore a *slice* of two items is returned. Similarly, `shoplist[:]` returns a copy of the whole sequence.
You can also do slicing with negative positions. Negative numbers are used for positions from the end of the sequence. For example, `shoplist[:-1]` will return a slice of the sequence which excludes the last item of the sequence but contains everything else.
You can also provide a third argument for the slice, which is the _step_ for the slicing (by default, the step size is 1):
```python
>>> shoplist = ['apple', 'mango', 'carrot', 'banana']
>>> shoplist[::1]
['apple', 'mango', 'carrot', 'banana']
>>> shoplist[::2]
['apple', 'carrot']
>>> shoplist[::3]
['apple', 'banana']
>>> shoplist[::-1]
['banana', 'carrot', 'mango', 'apple']
```
Notice that when the step is 2, we get the items with position 0, 2,... When the step size is 3, we get the items with position 0, 3, etc.
Try various combinations of such slice specifications using the Python interpreter interactively i.e. the prompt so that you can see the results immediately. The great thing about sequences is that you can access tuples, lists and strings all in the same way!
## Set
Sets are _unordered_ collections of simple objects. These are used when the existence of an object in a collection is more important than the order or how many times it occurs.
Using sets, you can test for membership, whether it is a subset of another set, find the intersection between two sets, and so on.
```python
>>> bri = set(['brazil', 'russia', 'india'])
>>> 'india' in bri
True
>>> 'usa' in bri
False
>>> bric = bri.copy()
>>> bric.add('china')
>>> bric.issuperset(bri)
True
>>> bri.remove('russia')
>>> bri & bric # OR bri.intersection(bric)
{'brazil', 'india'}
```
**How It Works**
If you remember basic set theory mathematics from school, then this example is fairly self-explanatory. But if not, you can google "set theory" and "Venn diagram" to better understand our use of sets in Python.
## References
When you create an object and assign it to a variable, the variable only _refers_ to the object and does not represent the object itself! That is, the variable name points to that part of your computer's memory where the object is stored. This is called *binding* the name to the object.
Generally, you don't need to be worried about this, but there is a subtle effect due to references which you need to be aware of:
Example (save as `ds_reference.py`):
<pre><code class="lang-python">print('Simple Assignment')
shoplist = ['apple', 'mango', 'carrot', 'banana']
# mylist is just another name pointing to the same object!
mylist = shoplist
# I purchased the first item, so I remove it from the list
del shoplist[0]
print('shoplist is', shoplist)
print('mylist is', mylist)
# Notice that both shoplist and mylist both print
# the same list without the 'apple' confirming that
# they point to the same object
print('Copy by making a full slice')
# Make a copy by doing a full slice
mylist = shoplist[:]
# Remove first item
del mylist[0]
print('shoplist is', shoplist)
print('mylist is', mylist)
# Notice that now the two lists are different
</code></pre>
Output:
<pre><code>$ python ds_reference.py
Simple Assignment
shoplist is ['mango', 'carrot', 'banana']
mylist is ['mango', 'carrot', 'banana']
Copy by making a full slice
shoplist is ['mango', 'carrot', 'banana']
mylist is ['carrot', 'banana']
</code></pre>
**How It Works**
Most of the explanation is available in the comments.
Remember that if you want to make a copy of a list or such kinds of sequences or complex objects (not simple _objects_ such as integers), then you have to use the slicing operation to make a copy. If you just assign the variable name to another name, both of them will ''refer'' to the same object and this could be trouble if you are not careful.
> **Note for Perl programmers**
>
> Remember that an assignment statement for lists does **not** create a copy. You have to use slicing operation to make a copy of the sequence.
## More About Strings
We have already discussed strings in detail earlier. What more can there be to know? Well, did you know that strings are also objects and have methods which do everything from checking part of a string to stripping spaces? In fact, you've already been using a string method... the `format` method!
The strings that you use in programs are all objects of the class `str`. Some useful methods of this class are demonstrated in the next example. For a complete list of such methods, see `help(str)`.
Example (save as `ds_str_methods.py`):
<pre><code class="lang-python"># This is a string object
name = 'Swaroop'
if name.startswith('Swa'):
print('Yes, the string starts with "Swa"')
if 'a' in name:
print('Yes, it contains the string "a"')
if name.find('war') != -1:
print('Yes, it contains the string "war"')
delimiter = '_*_'
mylist = ['Brazil', 'Russia', 'India', 'China']
print(delimiter.join(mylist))
</code></pre>
Output:
<pre><code>$ python ds_str_methods.py
Yes, the string starts with "Swa"
Yes, it contains the string "a"
Yes, it contains the string "war"
Brazil_*_Russia_*_India_*_China
</code></pre>
**How It Works**
Here, we see a lot of the string methods in action. The `startswith` method is used to find out whether the string starts with the given string. The `in` operator is used to check if a given string is a part of the string.
The `find` method is used to locate the position of the given substring within the string; `find` returns -1 if it is unsuccessful in finding the substring. The `str` class also has a neat method to `join` the items of a sequence with the string acting as a delimiter between each item of the sequence and returns a bigger string generated from this.
## Summary
We have explored the various built-in data structures of Python in detail. These data structures will be essential for writing programs of reasonable size.
Now that we have a lot of the basics of Python in place, we will next see how to design and write a real-world Python program.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Exceptions
Exceptions occur when _exceptional_ situations occur in your program. For example, what if you are going to read a file and the file does not exist? Or what if you accidentally deleted it when the program was running? Such situations are handled using **exceptions**.
Similarly, what if your program had some invalid statements? This is handled by Python which **raises** its hands and tells you there is an **error**.
## Errors
Consider a simple `print` function call. What if we misspelt `print` as `Print`? Note the capitalization. In this case, Python _raises_ a syntax error.
```python
>>> Print("Hello World")
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
NameError: name 'Print' is not defined
>>> print("Hello World")
Hello World
```
Observe that a `NameError` is raised and also the location where the error was detected is printed. This is what an **error handler** for this error does.
## Exceptions
We will **try** to read input from the user. Enter the first line below and hit the `Enter` key. When your computer prompts you for input, instead press `[ctrl-d]` on a Mac or `[ctrl-z]` with Windows and see what happens. (If you're using Windows and neither option works, you can try `[ctrl-c]` in the Command Prompt to generate a KeyboardInterrupt error instead).
```python
>>> s = input('Enter something --> ')
Enter something --> Traceback (most recent call last):
File "<stdin>", line 1, in <module>
EOFError
```
Python raises an error called `EOFError` which basically means it found an *end of file* symbol (which is represented by `ctrl-d`) when it did not expect to see it.
## Handling Exceptions
We can handle exceptions using the `try..except` statement. We basically put our usual statements within the try-block and put all our error handlers in the except-block.
Example (save as `exceptions_handle.py`):
<pre><code class="lang-python">try:
text = input('Enter something --> ')
except EOFError:
print('Why did you do an EOF on me?')
except KeyboardInterrupt:
print('You cancelled the operation.')
else:
print('You entered {}'.format(text))
</code></pre>
Output:
<pre><code># Press ctrl + d
$ python exceptions_handle.py
Enter something --> Why did you do an EOF on me?
# Press ctrl + c
$ python exceptions_handle.py
Enter something --> ^CYou cancelled the operation.
$ python exceptions_handle.py
Enter something --> No exceptions
You entered No exceptions
</code></pre>
**How It Works**
We put all the statements that might raise exceptions/errors inside the `try` block and then put handlers for the appropriate errors/exceptions in the `except` clause/block. The `except` clause can handle a single specified error or exception, or a parenthesized list of errors/exceptions. If no names of errors or exceptions are supplied, it will handle _all_ errors and exceptions.
Note that there has to be at least one `except` clause associated with every `try` clause. Otherwise, what's the point of having a try block?
If any error or exception is not handled, then the default Python handler is called which just stops the execution of the program and prints an error message. We have already seen this in action above.
You can also have an `else` clause associated with a `try..except` block. The `else` clause is executed if no exception occurs.
In the next example, we will also see how to get the exception object so that we can retrieve additional information.
## Raising Exceptions
You can _raise_ exceptions using the `raise` statement by providing the name of the error/exception and the exception object that is to be _thrown_.
The error or exception that you can raise should be a class which directly or indirectly must be a derived class of the `Exception` class.
Example (save as `exceptions_raise.py`):
<pre><code class="lang-python">class ShortInputException(Exception):
'''A user-defined exception class.'''
def __init__(self, length, atleast):
Exception.__init__(self)
self.length = length
self.atleast = atleast
try:
text = input('Enter something --> ')
if len(text) < 3:
raise ShortInputException(len(text), 3)
# Other work can continue as usual here
except EOFError:
print('Why did you do an EOF on me?')
except ShortInputException as ex:
print(('ShortInputException: The input was ' +
'{0} long, expected at least {1}')
.format(ex.length, ex.atleast))
else:
print('No exception was raised.')
</code></pre>
Output:
<pre><code>$ python exceptions_raise.py
Enter something --> a
ShortInputException: The input was 1 long, expected at least 3
$ python exceptions_raise.py
Enter something --> abc
No exception was raised.
</code></pre>
**How It Works**
Here, we are creating our own exception type. This new exception type is called `ShortInputException`. It has two fields - `length` which is the length of the given input, and `atleast` which is the minimum length that the program was expecting.
In the `except` clause, we mention the class of error which will be stored `as` the variable name to hold the corresponding error/exception object. This is analogous to parameters and arguments in a function call. Within this particular `except` clause, we use the `length` and `atleast` fields of the exception object to print an appropriate message to the user.
## Try ... Finally
Suppose you are reading a file in your program. How do you ensure that the file object is closed properly whether or not an exception was raised? This can be done using the `finally` block.
Save this program as `exceptions_finally.py`:
<pre><code class="lang-python">import sys
import time
f = None
try:
f = open("poem.txt")
# Our usual file-reading idiom
while True:
line = f.readline()
if len(line) == 0:
break
print(line, end='')
sys.stdout.flush()
print("Press ctrl+c now")
# To make sure it runs for a while
time.sleep(2)
except IOError:
print("Could not find file poem.txt")
except KeyboardInterrupt:
print("!! You cancelled the reading from the file.")
finally:
if f:
f.close()
print("(Cleaning up: Closed the file)")
</code></pre>
Output:
<pre><code>$ python exceptions_finally.py
Programming is fun
Press ctrl+c now
^C!! You cancelled the reading from the file.
(Cleaning up: Closed the file)
</code></pre>
**How It Works**
We do the usual file-reading stuff, but we have arbitrarily introduced sleeping for 2 seconds after printing each line using the `time.sleep` function so that the program runs slowly (Python is very fast by nature). When the program is still running, press `ctrl + c` to interrupt/cancel the program.
Observe that the `KeyboardInterrupt` exception is thrown and the program quits. However, before the program exits, the finally clause is executed and the file object is always closed.
Notice that a variable assigned a value of 0 or `None` or a variable which is an empty sequence or collection is considered `False` by Python. This is why we can use `if f:` in the code above.
Also note that we use `sys.stdout.flush()` after `print` so that it prints to the screen immediately.
## The with statement
Acquiring a resource in the `try` block and subsequently releasing the resource in the `finally` block is a common pattern. Hence, there is also a `with` statement that enables this to be done in a clean manner:
Save as `exceptions_using_with.py`:
<pre><code class="lang-python">with open("poem.txt") as f:
for line in f:
print(line, end='')
</code></pre>
**How It Works**
The output should be same as the previous example. The difference here is that we are using the `open` function with the `with` statement - we leave the closing of the file to be done automatically by `with open`.
What happens behind the scenes is that there is a protocol used by the `with` statement. It fetches the object returned by the `open` statement, let's call it "thefile" in this case.
It _always_ calls the `thefile.__enter__` function before starting the block of code under it and _always_ calls `thefile.__exit__` after finishing the block of code.
So the code that we would have written in a `finally` block should be taken care of automatically by the `__exit__` method. This is what helps us to avoid having to use explicit `try..finally` statements repeatedly.
More discussion on this topic is beyond scope of this book, so please refer PEP 343 for a comprehensive explanation.
## Summary
We have discussed the usage of the `try..except` and `try..finally` statements. We have seen how to create our own exception types and how to raise exceptions as well.
Next, we will explore the Python Standard Library.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Functions
Functions are reusable pieces of programs. They allow you to give a name to a block of statements, allowing you to run that block using the specified name anywhere in your program and any number of times. This is known as *calling* the function. We have already used many built-in functions such as `len` and `range`.
The function concept is probably *the* most important building block of any non-trivial software (in any programming language), so we will explore various aspects of functions in this chapter.
Functions are defined using the `def` keyword. After this keyword comes an *identifier* name for the function, followed by a pair of parentheses which may enclose some names of variables, and by the final colon that ends the line. Next follows the block of statements that are part of this function. An example will show that this is actually very simple:
Example (save as `function1.py`):
<pre><code class="lang-python">def say_hello():
# block belonging to the function
print('hello world')
# End of function
say_hello() # call the function
say_hello() # call the function again
</code></pre>
Output:
<pre><code>$ python function1.py
hello world
hello world
</code></pre>
**How It Works**
We define a function called `say_hello` using the syntax as explained above. This function takes no parameters and hence there are no variables declared in the parentheses. Parameters to functions are just input to the function so that we can pass in different values to it and get back corresponding results.
Notice that we can call the same function twice which means we do not have to write the same code again.
## Function Parameters
A function can take parameters, which are values you supply to the function so that the function
can *do* something utilising those values. These parameters are just like variables except that the
values of these variables are defined when we call the function and are already assigned values
when the function runs.
Parameters are specified within the pair of parentheses in the function definition, separated by
commas. When we call the function, we supply the values in the same way. Note the terminology
used - the names given in the function definition are called *parameters* whereas the values you
supply in the function call are called *arguments*.
Example (save as `function_param.py`):
<pre><code class="lang-python">def print_max(a, b):
if a > b:
print(a, 'is maximum')
elif a == b:
print(a, 'is equal to', b)
else:
print(b, 'is maximum')
# directly pass literal values
print_max(3, 4)
x = 5
y = 7
# pass variables as arguments
print_max(x, y)
</code></pre>
Output:
<pre><code>$ python function_param.py
4 is maximum
7 is maximum
</code></pre>
**How It Works**
Here, we define a function called `print_max` that uses two parameters called `a` and `b`. We find out the greater number using a simple `if..else` statement and then print the bigger number.
The first time we call the function `print_max`, we directly supply the numbers as arguments. In the second case, we call the function with variables as arguments. `print_max(x, y)` causes the value of argument `x` to be assigned to parameter `a` and the value of argument `y` to be assigned to parameter `b`. The `print_max` function works the same way in both cases.
## Local Variables
When you declare variables inside a function definition, they are not related in any way to other variables with the same names used outside the function - i.e. variable names are *local* to the function. This is called the *scope* of the variable. All variables have the scope of the block they are declared in starting from the point of definition of the name.
Example (save as `function_local.py`):
<pre><code class="lang-python">x = 50
def func(x):
print('x is', x)
x = 2
print('Changed local x to', x)
func(x)
print('x is still', x)
</code></pre>
Output:
<pre><code>$ python function_local.py
x is 50
Changed local x to 2
x is still 50
</code></pre>
**How It Works**
The first time that we print the *value* of the name *x* with the first line in the function's body, Python uses the value of the parameter declared in the main block, above the function definition.
Next, we assign the value `2` to `x`. The name `x` is local to our function. So, when we change the value of `x` in the function, the `x` defined in the main block remains unaffected.
With the last `print` statement, we display the value of `x` as defined in the main block, thereby confirming that it is actually unaffected by the local assignment within the previously called function.
## The `global` statement
If you want to assign a value to a name defined at the top level of the program (i.e. not inside any kind of scope such as functions or classes), then you have to tell Python that the name is not local, but it is *global*. We do this using the `global` statement. It is impossible to assign a value to a variable defined outside a function without the `global` statement.
You can use the values of such variables defined outside the function (assuming there is no variable with the same name within the function). However, this is not encouraged and should be avoided since it becomes unclear to the reader of the program as to where that variable's definition is. Using the `global` statement makes it amply clear that the variable is defined in an outermost block.
Example (save as `function_global.py`):
<pre><code class="lang-python">x = 50
def func():
global x
print('x is', x)
x = 2
print('Changed global x to', x)
func()
print('Value of x is', x)
</code></pre>
Output:
<pre><code>$ python function_global.py
x is 50
Changed global x to 2
Value of x is 2
</code></pre>
**How It Works**
The `global` statement is used to declare that `x` is a global variable - hence, when we assign a value to `x` inside the function, that change is reflected when we use the value of `x` in the main block.
You can specify more than one global variable using the same `global` statement e.g. `global x, y, z`.
## Default Argument Values
For some functions, you may want to make some parameters *optional* and use default values in case the user does not want to provide values for them. This is done with the help of default argument values. You can specify default argument values for parameters by appending to the parameter name in the function definition the assignment operator (`=`) followed by the default value.
Note that the default argument value should be a constant. More precisely, the default argument value should be immutable - this is explained in detail in later chapters. For now, just remember this.
Example (save as `function_default.py`):
<pre><code class="lang-python">def say(message, times=1):
print(message * times)
say('Hello')
say('World', 5)
</code></pre>
Output:
<pre><code>$ python function_default.py
Hello
WorldWorldWorldWorldWorld
</code></pre>
**How It Works**
The function named `say` is used to print a string as many times as specified. If we don't supply a value, then by default, the string is printed just once. We achieve this by specifying a default argument value of `1` to the parameter `times`.
In the first usage of `say`, we supply only the string and it prints the string once. In the second usage of `say`, we supply both the string and an argument `5` stating that we want to *say* the string message 5 times.
> *CAUTION*
>
> Only those parameters which are at the end of the parameter list can be given default argument
> values i.e. you cannot have a parameter with a default argument value preceding a parameter without
> a default argument value in the function's parameter list.
>
> This is because the values are assigned to the parameters by position. For example,`def func(a,
> b=5)` is valid, but `def func(a=5, b)` is *not valid*.
## Keyword Arguments
If you have some functions with many parameters and you want to specify only some of them, then you can give values for such parameters by naming them - this is called *keyword arguments* - we use the name (keyword) instead of the position (which we have been using all along) to specify the arguments to the function.
There are two advantages - one, using the function is easier since we do not need to worry about the order of the arguments. Two, we can give values to only those parameters to which we want to, provided that the other parameters have default argument values.
Example (save as `function_keyword.py`):
<pre><code class="lang-python">def func(a, b=5, c=10):
print('a is', a, 'and b is', b, 'and c is', c)
func(3, 7)
func(25, c=24)
func(c=50, a=100)
</code></pre>
Output:
<pre><code>$ python function_keyword.py
a is 3 and b is 7 and c is 10
a is 25 and b is 5 and c is 24
a is 100 and b is 5 and c is 50
</code></pre>
**How It Works**
The function named `func` has one parameter without a default argument value, followed by two parameters with default argument values.
In the first usage, `func(3, 7)`, the parameter `a` gets the value `3`, the parameter `b` gets the value `7` and `c` gets the default value of `10`.
In the second usage `func(25, c=24)`, the variable `a` gets the value of 25 due to the position of the argument. Then, the parameter `c` gets the value of `24` due to naming i.e. keyword arguments. The variable `b` gets the default value of `5`.
In the third usage `func(c=50, a=100)`, we use keyword arguments for all specified values. Notice that we are specifying the value for parameter `c` before that for `a` even though `a` is defined before `c` in the function definition.
## VarArgs parameters
Sometimes you might want to define a function that can take _any_ number of parameters, i.e. **var**iable number of **arg**uments, this can be achieved by using the stars (save as `function_varargs.py`):
<pre><code class="lang-python">def total(a=5, *numbers, **phonebook):
print('a', a)
#iterate through all the items in tuple
for single_item in numbers:
print('single_item', single_item)
#iterate through all the items in dictionary
for first_part, second_part in phonebook.items():
print(first_part,second_part)
total(10,1,2,3,Jack=1123,John=2231,Inge=1560)
</code></pre>
Output:
<pre><code>$ python function_varargs.py
a 10
single_item 1
single_item 2
single_item 3
Inge 1560
John 2231
Jack 1123
</code></pre>
**How It Works**
When we declare a starred parameter such as `*param`, then all the positional arguments from that point till the end are collected as a tuple called 'param'.
Similarly, when we declare a double-starred parameter such as `**param`, then all the keyword arguments from that point till the end are collected as a dictionary called 'param'.
We will explore tuples and dictionaries in a later chapter.
## The `return` statement
The `return` statement is used to *return* from a function i.e. break out of the function. We can optionally *return a value* from the function as well.
Example (save as `function_return.py`):
<pre><code class="lang-python">def maximum(x, y):
if x > y:
return x
elif x == y:
return 'The numbers are equal'
else:
return y
print(maximum(2, 3))
</code></pre>
Output:
<pre><code>$ python function_return.py
3
</code></pre>
**How It Works**
The `maximum` function returns the maximum of the parameters, in this case the numbers supplied to the function. It uses a simple `if..else` statement to find the greater value and then *returns* that value.
Note that a `return` statement without a value is equivalent to `return None`. `None` is a special type in Python that represents nothingness. For example, it is used to indicate that a variable has no value if it has a value of `None`.
Every function implicitly contains a `return None` statement at the end unless you have written your own `return` statement. You can see this by running `print(some_function())` where the function `some_function` does not use the `return` statement such as:
```python
def some_function():
pass
```
The `pass` statement is used in Python to indicate an empty block of statements.
> TIP: There is a built-in function called `max` that already implements the 'find maximum' functionality, so use this built-in function whenever possible.
## DocStrings
Python has a nifty feature called *documentation strings*, usually referred to by its shorter name *docstrings*. DocStrings are an important tool that you should make use of since it helps to document the program better and makes it easier to understand. Amazingly, we can even get the docstring back from, say a function, when the program is actually running!
Example (save as `function_docstring.py`):
<pre><code class="lang-python">def print_max(x, y):
'''Prints the maximum of two numbers.
The two values must be integers.'''
# convert to integers, if possible
x = int(x)
y = int(y)
if x > y:
print(x, 'is maximum')
else:
print(y, 'is maximum')
print_max(3, 5)
print(print_max.__doc__)
</code></pre>
Output:
<pre><code>$ python function_docstring.py
5 is maximum
Prints the maximum of two numbers.
The two values must be integers.
</code></pre>
**How It Works**
A string on the first logical line of a function is the *docstring* for that function. Note that DocStrings also apply to modules and classes which we will learn about in the respective chapters.
The convention followed for a docstring is a multi-line string where the first line starts with a capital letter and ends with a dot. Then the second line is blank followed by any detailed explanation starting from the third line. You are *strongly advised* to follow this convention for all your docstrings for all your non-trivial functions.
We can access the docstring of the `print_max` function using the `__doc__` (notice the *double underscores*) attribute (name belonging to) of the function. Just remember that Python treats *everything* as an object and this includes functions. We'll learn more about objects in the chapter on classes.
If you have used `help()` in Python, then you have already seen the usage of docstrings! What it does is just fetch the `__doc__` attribute of that function and displays it in a neat manner for you. You can try it out on the function above - just include `help(print_max)` in your program. Remember to press the `q` key to exit `help`.
Automated tools can retrieve the documentation from your program in this manner. Therefore, I *strongly recommend* that you use docstrings for any non-trivial function that you write. The `pydoc` command that comes with your Python distribution works similarly to `help()` using docstrings.
## Summary
We have seen so many aspects of functions but note that we still haven't covered all aspects of them. However, we have already covered most of what you'll use regarding Python functions on an everyday basis.
Next, we will see how to use as well as create Python modules.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Installation
When we refer to "Python 3" in this book, we will be referring to any version of Python equal to or greater than version Python {{ book.pythonVersion }}.
## Installation on Windows
Visit https://www.python.org/downloads/ and download the latest version. At the time of this writing, it was Python 3.5.1
The installation is just like any other Windows-based software.
Note that if your Windows version is pre-Vista, you should download Python 3.4 only as later versions require newer versions of Windows.
CAUTION: Make sure you check option `Add Python 3.5 to PATH`.
To change install location, click on `Customize installation`, then `Next` and enter `C:\python35` (or another appropriate location) as the install location.
If you didnt check the `Add Python 3.5 PATH` option earlier, check `Add Python to environment variables`. This does the same thing as `Add Python 3.5 to PATH` on the first install screen.
You can choose to install Launcher for all users or not, it does not matter much. Launcher is used to switch between different versions of Python installed.
If your path was not set correctly (by checking the `Add Python 3.5 Path` or `Add Python to environment variables` options), then follow the steps in the next section (`DOS Prompt`) to fix it. Otherwise, go to the `Running Python prompt on Windows` section in this document.
NOTE: For people who already know programming, if you are familiar with Docker, check out Python in Docker and Docker on Windows.
### DOS Prompt
If you want to be able to use Python from the Windows command line i.e. the DOS prompt, then you need to set the PATH variable appropriately.
For Windows 2000, XP, 2003 , click on `Control Panel` -> `System` -> `Advanced` -> `Environment Variables`. Click on the variable named `PATH` in the _System Variables_ section, then select `Edit` and add `;C:\Python35` (please verify that this folder exists, it will be different for newer versions of Python) to the end of what is already there. Of course, use the appropriate directory name.
<!-- The directory should match pythonVersion variable in book.json -->
For older versions of Windows, open the file `C:\AUTOEXEC.BAT` and add the line `PATH=%PATH%;C:\Python35` and restart the system. For Windows NT, use the `AUTOEXEC.NT` file.
For Windows Vista:
- Click Start and choose `Control Panel`
- Click System, on the right you'll see "View basic information about your computer"
- On the left is a list of tasks, the last of which is `Advanced system settings`. Click that.
- The `Advanced` tab of the `System Properties` dialog box is shown. Click the `Environment Variables` button on the bottom right.
- In the lower box titled `System Variables` scroll down to Path and click the `Edit` button.
- Change your path as need be.
- Restart your system. Vista didn't pick up the system path environment variable change until I restarted.
For Windows 7 and 8:
- Right click on Computer from your desktop and select `Properties` or click `Start` and choose `Control Panel` -> `System and Security` -> `System`. Click on `Advanced system settings` on the left and then click on the `Advanced` tab. At the bottom click on `Environment Variables` and under `System variables`, look for the `PATH` variable, select and then press `Edit`.
- Go to the end of the line under Variable value and append `;C:\Python35` (please verify that this folder exists, it will be different for newer versions of Python) to the end of what is already there. Of course, use the appropriate folder name.
- If the value was `%SystemRoot%\system32;` It will now become `%SystemRoot%\system32;C:\Python36` <!-- The directory should match pythonVersion variable in book.json -->
- Click `OK` and you are done. No restart is required, however you may have to close and reopen the command line.
For Windows 10:
Windows Start Menu > `Settings` > `About` > `System Info` (this is all the way over to the right) > `Advanced System Settings` > `Environment Variables` (this is towards the bottom) > (then highlight `Path` variable and click `Edit`) > `New` > (type in whatever your python location is. For example, `C:\Python35\`)
### Running Python prompt on Windows
For Windows users, you can run the interpreter in the command line if you have set the `PATH` variable appropriately.
To open the terminal in Windows, click the start button and click `Run`. In the dialog box, type `cmd` and press `[enter]` key.
Then, type `python` and ensure there are no errors.
## Installation on Mac OS X
For Mac OS X users, use Homebrew: `brew install python3`.
To verify, open the terminal by pressing `[Command + Space]` keys (to open Spotlight search), type `Terminal` and press `[enter]` key. Now, run `python3` and ensure there are no errors.
## Installation on GNU/Linux
For GNU/Linux users, use your distribution's package manager to install Python 3, e.g. on Debian & Ubuntu: `sudo apt-get update && sudo apt-get install python3`.
To verify, open the terminal by opening the `Terminal` application or by pressing `Alt + F2` and entering `gnome-terminal`. If that doesn't work, please refer the documentation of your particular GNU/Linux distribution. Now, run `python3` and ensure there are no errors.
You can see the version of Python on the screen by running:
<!-- The output should match pythonVersion variable in book.json -->
```
$ python3 -V
Python 3.6.0
```
NOTE: `$` is the prompt of the shell. It will be different for you depending on the settings of the operating system on your computer, hence I will indicate the prompt by just the `$` symbol.
CAUTION: Output may be different on your computer, depending on the version of Python software installed on your computer.
## Summary
From now on, we will assume that you have Python installed on your system.
Next, we will write our first Python program.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Input and Output
There will be situations where your program has to interact with the user. For example, you would want to take input from the user and then print some results back. We can achieve this using the `input()` function and `print` function respectively.
For output, we can also use the various methods of the `str` (string) class. For example, you can use the `rjust` method to get a string which is right justified to a specified width. See `help(str)` for more details.
Another common type of input/output is dealing with files. The ability to create, read and write files is essential to many programs and we will explore this aspect in this chapter.
## Input from user
Save this program as `io_input.py`:
<pre><code class="lang-python">def reverse(text):
return text[::-1]
def is_palindrome(text):
return text == reverse(text)
something = input("Enter text: ")
if is_palindrome(something):
print("Yes, it is a palindrome")
else:
print("No, it is not a palindrome")
</code></pre>
Output:
<pre><code>$ python3 io_input.py
Enter text: sir
No, it is not a palindrome
$ python3 io_input.py
Enter text: madam
Yes, it is a palindrome
$ python3 io_input.py
Enter text: racecar
Yes, it is a palindrome
</code></pre>
**How It Works**
We use the slicing feature to reverse the text. We've already seen how we can make slices from sequences using the `seq[a:b]` code starting from position `a` to position `b`. We can also provide a third argument that determines the _step_ by which the slicing is done. The default step is `1` because of which it returns a continuous part of the text. Giving a negative step, i.e., `-1` will return the text in reverse.
The `input()` function takes a string as argument and displays it to the user. Then it waits for the user to type something and press the return key. Once the user has entered and pressed the return key, the `input()` function will then return that text the user has entered.
We take that text and reverse it. If the original text and reversed text are equal, then the text is a palindrome.
### Homework exercise
Checking whether a text is a palindrome should also ignore punctuation, spaces and case. For example, "Rise to vote, sir." is also a palindrome but our current program doesn't say it is. Can you improve the above program to recognize this palindrome?
If you need a hint, the idea is that...[^1]
## Files
You can open and use files for reading or writing by creating an object of the `file` class and using its `read`, `readline` or `write` methods appropriately to read from or write to the file. The ability to read or write to the file depends on the mode you have specified for the file opening. Then finally, when you are finished with the file, you call the `close` method to tell Python that we are done using the file.
Example (save as `io_using_file.py`):
<pre><code class="lang-python">poem = '''\
Programming is fun
When the work is done
if you wanna make your work also fun:
use Python!
'''
# Open for 'w'riting
f = open('poem.txt', 'w')
# Write text to file
f.write(poem)
# Close the file
f.close()
# If no mode is specified,
# 'r'ead mode is assumed by default
f = open('poem.txt')
while True:
line = f.readline()
# Zero length indicates EOF
if len(line) == 0:
break
# The `line` already has a newline
# at the end of each line
# since it is reading from a file.
print(line, end='')
# close the file
f.close()
</code></pre>
Output:
<pre><code>$ python3 io_using_file.py
Programming is fun
When the work is done
if you wanna make your work also fun:
use Python!
</code></pre>
**How It Works**
Note that we can create a new file object simply by using the `open` method. We open (or create it if it doesn't already exist) this file by using the built-in `open` function and specifying the name of the file and the mode in which we want to open the file. The mode can be a read mode (`'r'`), write mode (`'w'`) or append mode (`'a'`). We can also specify whether we are reading, writing, or appending in text mode (`'t'`) or binary mode (`'b'`). There are actually many more modes available and `help(open)` will give you more details about them. By default, `open()` considers the file to be a 't'ext file and opens it in 'r'ead mode.
In our example, we first open/create the file in write text mode and use the `write` method of the file object to write our string variable `poem` to the file and then we finally `close` the file.
Next, we open the same file again for reading. We don't need to specify a mode because 'read text file' is the default mode. We read in each line of the file using the `readline` method in a loop. This method returns a complete line including the newline character at the end of the line. When an _empty_ string is returned, it means that we have reached the end of the file and we 'break' out of the loop.
In the end, we finally `close` the file.
We can see from our `readline` output that this program has indeed written to and read from our new `poem.txt` file.
## Pickle
Python provides a standard module called `pickle` which you can use to store _any_ plain Python object in a file and then get it back later. This is called storing the object *persistently*.
Example (save as `io_pickle.py`):
<pre><code class="lang-python">import pickle
# The name of the file where we will store the object
shoplistfile = 'shoplist.data'
# The list of things to buy
shoplist = ['apple', 'mango', 'carrot']
# Write to the file
f = open(shoplistfile, 'wb')
# Dump the object to a file
pickle.dump(shoplist, f)
f.close()
# Destroy the shoplist variable
del shoplist
# Read back from the storage
f = open(shoplistfile, 'rb')
# Load the object from the file
storedlist = pickle.load(f)
print(storedlist)
f.close()
</code></pre>
Output:
<pre><code>$ python io_pickle.py
['apple', 'mango', 'carrot']
</code></pre>
**How It Works**
To store an object in a file, we have to first `open` the file in __w__rite __b__inary mode and then call the `dump` function of the `pickle` module. This process is called _pickling_.
Next, we retrieve the object using the `load` function of the `pickle` module which returns the object. This process is called _unpickling_.
## Unicode
So far, when we have been writing and using strings, or reading and writing to a file, we have used simple English characters only. Both English and non-English characters can be represented in Unicode (please see the articles at the end of this section for more info), and Python 3 by default stores string variables (think of all that text we wrote using single or double or triple quotes) in Unicode.
> NOTE: If you are using Python 2, and we want to be able to read and write other non-English languages, we need to use the `unicode` type, and it all starts with the character `u`, e.g. `u"hello world"`
```python
>>> "hello world"
'hello world'
>>> type("hello world")
<class 'str'>
>>> u"hello world"
'hello world'
>>> type(u"hello world")
<class 'str'>
```
When data is sent over the Internet, we need to send it in bytes... something your computer easily understands. The rules for translating Unicode (which is what Python uses when it stores a string) to bytes is called encoding. A popular encoding to use is UTF-8. We can read and write in UTF-8 by using a simple keyword argument in our `open` function.
<pre><code class="lang-python"># encoding=utf-8
import io
f = io.open("abc.txt", "wt", encoding="utf-8")
f.write(u"Imagine non-English language here")
f.close()
text = io.open("abc.txt", encoding="utf-8").read()
print(text)
</code></pre>
**How It Works**
We use `io.open` and then use the `encoding` argument in the first open statement to encode the message, and then again in the second open statement when decoding the message. Note that we should only use encoding in the open statement when in text mode.
Whenever we write a program that uses Unicode literals (by putting a `u` before the string) like we have used above, we have to make sure that Python itself is told that our program uses UTF-8, and we have to put `# encoding=utf-8` comment at the top of our program.
You should learn more about this topic by reading:
- "The Absolute Minimum Every Software Developer Absolutely, Positively Must Know About Unicode and Character Sets"
- Python Unicode Howto
- Pragmatic Unicode talk by Nat Batchelder
## Summary
We have discussed various types of input/output, about file handling, about the pickle module and about Unicode.
Next, we will explore the concept of exceptions.
---
[^1]: Use a tuple (you can find a list of _all_ punctuation marks here) to hold all the forbidden characters, then use the membership test to determine whether a character should be removed or not, i.e. forbidden = (`!`, `?`, `.`, ...).
|
# [A Byte of Python](https://python.swaroopch.com/)
# Modules
You have seen how you can reuse code in your program by defining functions once. What if you wanted to reuse a number of functions in other programs that you write? As you might have guessed, the answer is modules.
There are various methods of writing modules, but the simplest way is to create a file with a `.py` extension that contains functions and variables.
Another method is to write the modules in the native language in which the Python interpreter itself was written. For example, you can write modules in the C programming language and when compiled, they can be used from your Python code when using the standard Python interpreter.
A module can be *imported* by another program to make use of its functionality. This is how we can use the Python standard library as well. First, we will see how to use the standard library modules.
Example (save as `module_using_sys.py`):
<pre><code class="lang-python">import sys
print('The command line arguments are:')
for i in sys.argv:
print(i)
print('\n\nThe PYTHONPATH is', sys.path, '\n')
</code></pre>
Output:
<pre><code>$ python module_using_sys.py we are arguments # each arg is separated by white space
The command line arguments are:
module_using_sys.py
we
are
arguments
The PYTHONPATH is ['/tmp/py',
# many entries here, not shown here
'/Library/Python/2.7/site-packages',
'/usr/local/lib/python2.7/site-packages']
</code></pre>
**How It Works**
First, we *import* the `sys` module using the `import` statement. Basically, this translates to us telling Python that we want to use this module. The `sys` module contains functionality related to the Python interpreter and its environment i.e. the **sys**tem.
When Python executes the `import sys` statement, it looks for the `sys` module. In this case, it is one of the built-in modules, and hence Python knows where to find it.
If it was not a compiled module i.e. a module written in Python, then the Python interpreter will search for it in the directories listed in its `sys.path` variable. If the module is found, then the statements in the body of that module are run and the module is made *available* for you to use. Note that the initialization is done only the *first* time that we import a module.
The `argv` variable in the `sys` module is accessed using the dotted notation i.e. `sys.argv`. It clearly indicates that this name is part of the `sys` module. Another advantage of this approach is that the name does not clash with any `argv` variable used in your program.
The `sys.argv` variable is a *list* of strings (lists are explained in detail in a later chapter). Specifically, the `sys.argv` contains the list of *command line arguments* i.e. the arguments passed to your program using the command line.
If you are using an IDE to write and run these programs, look for a way to specify command line arguments to the program in the menus.
Here, when we execute `python module_using_sys.py we are arguments`, we run the module `module_using_sys.py` with the `python` command and the other things that follow are arguments passed to the program. Python stores the command line arguments in the `sys.argv` variable for us to use.
Remember, the name of the script running is always the first element in the `sys.argv` list. So, in this case we will have `'module_using_sys.py'` as `sys.argv[0]`, `'we'` as `sys.argv[1]`, `'are'` as `sys.argv[2]` and `'arguments'` as `sys.argv[3]`. Notice that Python starts counting from 0 and not 1.
The `sys.path` contains the list of directory names where modules are imported from. Observe that the first string in `sys.path` is empty - this empty string indicates that the current directory is also part of the `sys.path` which is same as the `PYTHONPATH` environment variable. This means that you can directly import modules located in the current directory. Otherwise, you will have to place your module in one of the directories listed in `sys.path`.
Note that the current directory is the directory from which the program is launched. Run `import os; print(os.getcwd())` to find out the current directory of your program.
## Byte-compiled .pyc files
Importing a module is a relatively costly affair, so Python does some tricks to make it faster. One way is to create *byte-compiled* files with the extension `.pyc` which is an intermediate form that Python transforms the program into (remember the introduction section on how Python works?). This `.pyc` file is useful when you import the module the next time from a different program - it will be much faster since a portion of the processing required in importing a module is already done. Also, these byte-compiled files are platform-independent.
NOTE: These `.pyc` files are usually created in the same directory as the corresponding `.py` files. If Python does not have permission to write to files in that directory, then the `.pyc` files will _not_ be created.
## The from..import statement
If you want to directly import the `argv` variable into your program (to avoid typing the `sys.` everytime for it), then you can use the `from sys import argv` statement.
> WARNING: In general, *avoid* using the `from..import` statement, use the `import` statement instead. This is because your program will avoid name clashes and will be more readable.
Example:
```python
from math import sqrt
print("Square root of 16 is", sqrt(16))
```
## A module's `__name__`
Every module has a name and statements in a module can find out the name of their module. This is handy for the particular purpose of figuring out whether the module is being run standalone or being imported. As mentioned previously, when a module is imported for the first time, the code it contains gets executed. We can use this to make the module behave in different ways depending on whether it is being used by itself or being imported from another module. This can be achieved using the `__name__` attribute of the module.
Example (save as `module_using_name.py`):
<pre><code class="lang-python">if __name__ == '__main__':
print('This program is being run by itself')
else:
print('I am being imported from another module')
</code></pre>
Output:
<pre><code>$ python module_using_name.py
This program is being run by itself
$ python
>>> import module_using_name
I am being imported from another module
>>>
</code></pre>
**How It Works**
Every Python module has its `__name__` defined. If this is `'__main__'`, that implies that the module is being run standalone by the user and we can take appropriate actions.
## Making Your Own Modules
Creating your own modules is easy, you've been doing it all along! This is because every Python program is also a module. You just have to make sure it has a `.py` extension. The following example should make it clear.
Example (save as `mymodule.py`):
<pre><code class="lang-python">def say_hi():
print('Hi, this is mymodule speaking.')
__version__ = '0.1'
</code></pre>
The above was a sample *module*. As you can see, there is nothing particularly special about it compared to our usual Python program. We will next see how to use this module in our other Python programs.
Remember that the module should be placed either in the same directory as the program from which we import it, or in one of the directories listed in `sys.path`.
Another module (save as `mymodule_demo.py`):
<pre><code class="lang-python">import mymodule
mymodule.say_hi()
print('Version', mymodule.__version__)
</code></pre>
Output:
<pre><code>$ python mymodule_demo.py
Hi, this is mymodule speaking.
Version 0.1
</code></pre>
**How It Works**
Notice that we use the same dotted notation to access members of the module. Python makes good reuse of the same notation to give the distinctive 'Pythonic' feel to it so that we don't have to keep learning new ways to do things.
Here is a version utilising the `from..import` syntax (save as `mymodule_demo2.py`):
<pre><code class="lang-python">from mymodule import say_hi, __version__
say_hi()
print('Version', __version__)
</code></pre>
The output of `mymodule_demo2.py` is same as the output of `mymodule_demo.py`.
Notice that if there was already a `__version__` name declared in the module that imports mymodule, there would be a clash. This is also likely because it is common practice for each module to declare it's version number using this name. Hence, it is always recommended to prefer the `import` statement even though it might make your program a little longer.
You could also use:
```python
from mymodule import *
```
This will import all public names such as `say_hi` but would not import `__version__` because it starts with double underscores.
> WARNING: Remember that you should avoid using import-star, i.e. `from mymodule import *`.
<!-- -->
> **Zen of Python**
>
> One of Python's guiding principles is that "Explicit is better than Implicit". Run `import this` in Python to learn more.
## The `dir` function
The built-in `dir()` function returns the list of names defined by an object.
If the object is a module, this list includes functions, classes and variables, defined inside that module.
This function can accept arguments.
If the argument is the name of a module, the function returns the list of names from that specified module.
If there is no argument, the function returns the list of names from the current module.
Example:
```python
$ python
>>> import sys
# get names of attributes in sys module
>>> dir(sys)
['__displayhook__', '__doc__',
'argv', 'builtin_module_names',
'version', 'version_info']
# only few entries shown here
# get names of attributes for current module
>>> dir()
['__builtins__', '__doc__',
'__name__', '__package__', 'sys']
# create a new variable 'a'
>>> a = 5
>>> dir()
['__builtins__', '__doc__', '__name__', '__package__', 'sys', 'a']
# delete/remove a name
>>> del a
>>> dir()
['__builtins__', '__doc__', '__name__', '__package__', 'sys']
```
**How It Works**
First, we see the usage of `dir` on the imported `sys` module. We can see the huge list of attributes that it contains.
Next, we use the `dir` function without passing parameters to it. By default, it returns the list of attributes for the current module. Notice that the list of imported modules is also part of this list.
In order to observe `dir` in action, we define a new variable `a` and assign it a value and then check `dir` and we observe that there is an additional value in the list of the same name. We remove the variable/attribute of the current module using the `del` statement and the change is reflected again in the output of the `dir` function.
A note on `del`: This statement is used to *delete* a variable/name and after the statement has run, in this case `del a`, you can no longer access the variable `a` - it is as if it never existed before at all.
Note that the `dir()` function works on *any* object. For example, run `dir(str)` for the attributes of the `str` (string) class.
There is also a `vars()` function which can potentially give you the attributes and their values, but it will not work for all cases.
## Packages
By now, you must have started observing the hierarchy of organizing your programs. Variables usually go inside functions. Functions and global variables usually go inside modules. What if you wanted to organize modules? That's where packages come into the picture.
Packages are just folders of modules with a special `__init__.py` file that indicates to Python that this folder is special because it contains Python modules.
Let's say you want to create a package called 'world' with subpackages 'asia', 'africa', etc. and these subpackages in turn contain modules like 'india', 'madagascar', etc.
This is how you would structure the folders:
```
- <some folder present in the sys.path>/
- world/
- __init__.py
- asia/
- __init__.py
- india/
- __init__.py
- foo.py
- africa/
- __init__.py
- madagascar/
- __init__.py
- bar.py
```
Packages are just a convenience to organize modules hierarchically. You will see many instances of this in the standard library.
## Summary
Just like functions are reusable parts of programs, modules are reusable programs. Packages are another hierarchy to organize modules. The standard library that comes with Python is an example of such a set of packages and modules.
We have seen how to use these modules and create our own modules.
Next, we will learn about some interesting concepts called data structures.
|
# [A Byte of Python](https://python.swaroopch.com/)
# More
So far we have covered a majority of the various aspects of Python that you will use. In this chapter, we will cover some more aspects that will make our knowledge of Python more well-rounded.
## Passing tuples around
Ever wished you could return two different values from a function? You can. All you have to do is use a tuple.
```python
>>> def get_error_details():
... return (2, 'details')
...
>>> errnum, errstr = get_error_details()
>>> errnum
2
>>> errstr
'details'
```
Notice that the usage of `a, b = <some expression>` interprets the result of the expression as a tuple with two values.
This also means the fastest way to swap two variables in Python is:
```python
>>> a = 5; b = 8
>>> a, b
(5, 8)
>>> a, b = b, a
>>> a, b
(8, 5)
```
## Special Methods
There are certain methods such as the `__init__` and `__del__` methods which have special significance in classes.
Special methods are used to mimic certain behaviors of built-in types. For example, if you want to use the `x[key]` indexing operation for your class (just like you use it for lists and tuples), then all you have to do is implement the `__getitem__()` method and your job is done. If you think about it, this is what Python does for the `list` class itself!
Some useful special methods are listed in the following table. If you want to know about all the special methods, see the manual.
- `__init__(self, ...)`
- This method is called just before the newly created object is returned for usage.
- `__del__(self)`
- Called just before the object is destroyed (which has unpredictable timing, so avoid using this)
- `__str__(self)`
- Called when we use the `print` function or when `str()` is used.
- `__lt__(self, other)`
- Called when the _less than_ operator (<) is used. Similarly, there are special methods for all the operators (+, >, etc.)
- `__getitem__(self, key)`
- Called when `x[key]` indexing operation is used.
- `__len__(self)`
- Called when the built-in `len()` function is used for the sequence object.
## Single Statement Blocks
We have seen that each block of statements is set apart from the rest by its own indentation level. Well, there is one caveat. If your block of statements contains only one single statement, then you can specify it on the same line of, say, a conditional statement or looping statement. The following example should make this clear:
```python
>>> flag = True
>>> if flag: print('Yes')
...
Yes
```
Notice that the single statement is used in-place and not as a separate block. Although, you can use this for making your program _smaller_, I strongly recommend avoiding this short-cut method, except for error checking, mainly because it will be much easier to add an extra statement if you are using proper indentation.
## Lambda Forms
A `lambda` statement is used to create new function objects. Essentially, the `lambda` takes a parameter followed by a single expression. Lambda becomes the body of the function. The value of this expression is returned by the new function.
Example (save as `more_lambda.py`):
<pre><code class="lang-python">points = [{'x': 2, 'y': 3},
{'x': 4, 'y': 1}]
points.sort(key=lambda i: i['y'])
print(points)
</code></pre>
Output:
<pre><code>$ python more_lambda.py
[{'y': 1, 'x': 4}, {'y': 3, 'x': 2}]
</code></pre>
**How It Works**
Notice that the `sort` method of a `list` can take a `key` parameter which determines how the list is sorted (usually we know only about ascending or descending order). In our case, we want to do a custom sort, and for that we need to write a function. Instead of writing a separate `def` block for a function that will get used in only this one place, we use a lambda expression to create a new function.
## List Comprehension
List comprehensions are used to derive a new list from an existing list. Suppose you have a list of numbers and you want to get a corresponding list with all the numbers multiplied by 2 only when the number itself is greater than 2. List comprehensions are ideal for such situations.
Example (save as `more_list_comprehension.py`):
<pre><code class="lang-python">listone = [2, 3, 4]
listtwo = [2*i for i in listone if i > 2]
print(listtwo)
</code></pre>
Output:
<pre><code>$ python more_list_comprehension.py
[6, 8]
</code></pre>
**How It Works**
Here, we derive a new list by specifying the manipulation to be done (`2*i`) when some condition is satisfied (`if i > 2`). Note that the original list remains unmodified.
The advantage of using list comprehensions is that it reduces the amount of boilerplate code required when we use loops to process each element of a list and store it in a new list.
## Receiving Tuples and Dictionaries in Functions
There is a special way of receiving parameters to a function as a tuple or a dictionary using the `*` or `**` prefix respectively. This is useful when taking variable number of arguments in the function.
```python
>>> def powersum(power, *args):
... '''Return the sum of each argument raised to the specified power.'''
... total = 0
... for i in args:
... total += pow(i, power)
... return total
...
>>> powersum(2, 3, 4)
25
>>> powersum(2, 10)
100
```
Because we have a `*` prefix on the `args` variable, all extra arguments passed to the function are stored in `args` as a tuple. If a `**` prefix had been used instead, the extra parameters would be considered to be key/value pairs of a dictionary.
## The assert statement
The `assert` statement is used to assert that something is true. For example, if you are very sure that you will have at least one element in a list you are using and want to check this, and raise an error if it is not true, then `assert` statement is ideal in this situation. When the assert statement fails, an `AssertionError` is raised.
The `pop()` method removes and returns the last item from the list.
```python
>>> mylist = ['item']
>>> assert len(mylist) >= 1
>>> mylist.pop()
'item'
>>> assert len(mylist) >= 1
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
AssertionError
```
The `assert` statement should be used judiciously. Most of the time, it is better to catch exceptions, either handle the problem or display an error message to the user and then quit.
## Decorators
Decorators are a shortcut to applying wrapper functions. This is helpful to "wrap" functionality with the same code over and over again. For example, I created a `retry` decorator for myself that I can just apply to any function and if any exception is thrown during a run, it is retried again, till a maximum of 5 times and with a delay between each retry. This is especially useful for situations where you are trying to make a network call to a remote computer:
<pre><code class="lang-python">from time import sleep
from functools import wraps
import logging
logging.basicConfig()
log = logging.getLogger("retry")
def retry(f):
@wraps(f)
def wrapper_function(*args, **kwargs):
MAX_ATTEMPTS = 5
for attempt in range(1, MAX_ATTEMPTS + 1):
try:
return f(*args, **kwargs)
except Exception:
log.exception("Attempt %s/%s failed : %s",
attempt,
MAX_ATTEMPTS,
(args, kwargs))
sleep(10 * attempt)
log.critical("All %s attempts failed : %s",
MAX_ATTEMPTS,
(args, kwargs))
return wrapper_function
counter = 0
@retry
def save_to_database(arg):
print("Write to a database or make a network call or etc.")
print("This will be automatically retried if exception is thrown.")
global counter
counter += 1
# This will throw an exception in the first call
# And will work fine in the second call (i.e. a retry)
if counter < 2:
raise ValueError(arg)
if __name__ == '__main__':
save_to_database("Some bad value")
</code></pre>
Output:
<pre><code>$ python more_decorator.py
Write to a database or make a network call or etc.
This will be automatically retried if exception is thrown.
ERROR:retry:Attempt 1/5 failed : (('Some bad value',), {})
Traceback (most recent call last):
File "more_decorator.py", line 14, in wrapper_function
return f(*args, **kwargs)
File "more_decorator.py", line 39, in save_to_database
raise ValueError(arg)
ValueError: Some bad value
Write to a database or make a network call or etc.
This will be automatically retried if exception is thrown.
</code></pre>
**How It Works**
See:
- Video : Python Decorators Made Easy
- http://www.ibm.com/developerworks/linux/library/l-cpdecor.html
- http://toumorokoshi.github.io/dry-principles-through-python-decorators.html
## Differences between Python 2 and Python 3
See:
- "Six" library
- Porting to Python 3 Redux by Armin
- Python 3 experience by PyDanny
- Official Django Guide to Porting to Python 3
- Discussion on What are the advantages to python 3.x?
## Summary
We have covered some more features of Python in this chapter and yet we haven't covered all the features of Python. However, at this stage, we have covered most of what you are ever going to use in practice. This is sufficient for you to get started with whatever programs you are going to create.
Next, we will discuss how to explore Python further.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Object Oriented Programming
In all the programs we wrote till now, we have designed our program around functions i.e. blocks of statements which manipulate data. This is called the _procedure-oriented_ way of programming. There is another way of organizing your program which is to combine data and functionality and wrap it inside something called an object. This is called the _object oriented_ programming paradigm. Most of the time you can use procedural programming, but when writing large programs or have a problem that is better suited to this method, you can use object oriented programming techniques.
Classes and objects are the two main aspects of object oriented programming. A **class** creates a new _type_ where **objects** are **instances** of the class. An analogy is that you can have variables of type `int` which translates to saying that variables that store integers are variables which are instances (objects) of the `int` class.
> **Note for Static Language Programmers**
>
> Note that even integers are treated as objects (of the `int` class). This is unlike C++ and Java (before version 1.5) where integers are primitive native types.
>
> See `help(int)` for more details on the class.
>
> C# and Java 1.5 programmers will find this similar to the _boxing and unboxing_ concept.
Objects can store data using ordinary variables that _belong_ to the object. Variables that belong to an object or class are referred to as **fields**. Objects can also have functionality by using functions that _belong_ to a class. Such functions are called **methods** of the class. This terminology is important because it helps us to differentiate between functions and variables which are independent and those which belong to a class or object. Collectively, the fields and methods can be referred to as the **attributes** of that class.
Fields are of two types - they can belong to each instance/object of the class or they can belong to the class itself. They are called **instance variables** and **class variables** respectively.
A class is created using the `class` keyword. The fields and methods of the class are listed in an indented block.
## The `self`
Class methods have only one specific difference from ordinary functions - they must have an extra first name that has to be added to the beginning of the parameter list, but you **do not** give a value for this parameter when you call the method, Python will provide it. This particular variable refers to the object _itself_, and by convention, it is given the name `self`.
Although, you can give any name for this parameter, it is _strongly recommended_ that you use the name `self` - any other name is definitely frowned upon. There are many advantages to using a standard name - any reader of your program will immediately recognize it and even specialized IDEs (Integrated Development Environments) can help you if you use `self`.
> **Note for C++/Java/C# Programmers**
>
> The `self` in Python is equivalent to the `this` pointer in C++ and the `this` reference in Java and C#.
You must be wondering how Python gives the value for `self` and why you don't need to give a value for it. An example will make this clear. Say you have a class called `MyClass` and an instance of this class called `myobject`. When you call a method of this object as `myobject.method(arg1, arg2)`, this is automatically converted by Python into `MyClass.method(myobject, arg1, arg2)` - this is all the special `self` is about.
This also means that if you have a method which takes no arguments, then you still have to have one argument - the `self`.
## Classes
The simplest class possible is shown in the following example (save as `oop_simplestclass.py`).
<pre><code class="lang-python">class Person:
pass # An empty block
p = Person()
print(p)
</code></pre>
Output:
<pre><code>$ python oop_simplestclass.py
<__main__.Person instance at 0x10171f518>
</code></pre>
**How It Works**
We create a new class using the `class` statement and the name of the class. This is followed by an indented block of statements which form the body of the class. In this case, we have an empty block which is indicated using the `pass` statement.
Next, we create an object/instance of this class using the name of the class followed by a pair of parentheses. (We will learn more about instantiation in the next section). For our verification, we confirm the type of the variable by simply printing it. It tells us that we have an instance of the `Person` class in the `__main__` module.
Notice that the address of the computer memory where your object is stored is also printed. The address will have a different value on your computer since Python can store the object wherever it finds space.
## Methods
We have already discussed that classes/objects can have methods just like functions except that we have an extra `self` variable. We will now see an example (save as `oop_method.py`).
<pre><code class="lang-python">class Person:
def say_hi(self):
print('Hello, how are you?')
p = Person()
p.say_hi()
# The previous 2 lines can also be written as
# Person().say_hi()
</code></pre>
Output:
<pre><code>$ python oop_method.py
Hello, how are you?
</code></pre>
**How It Works**
Here we see the `self` in action. Notice that the `say_hi` method takes no parameters but still has the `self` in the function definition.
## The `__init__` method
There are many method names which have special significance in Python classes. We will see the significance of the `__init__` method now.
The `__init__` method is run as soon as an object of a class is instantiated (i.e. created). The method is useful to do any *initialization* (i.e. passing initial values to your object) you want to do with your object. Notice the double underscores both at the beginning and at the end of the name.
Example (save as `oop_init.py`):
<pre><code class="lang-python">class Person:
def __init__(self, name):
self.name = name
def say_hi(self):
print('Hello, my name is', self.name)
p = Person('Swaroop')
p.say_hi()
# The previous 2 lines can also be written as
# Person('Swaroop').say_hi()
</code></pre>
Output:
<pre><code>$ python oop_init.py
Hello, my name is Swaroop
</code></pre>
**How It Works**
Here, we define the `__init__` method as taking a parameter `name` (along with the usual `self`). Here, we just create a new field also called `name`. Notice these are two different variables even though they are both called 'name'. There is no problem because the dotted notation `self.name` means that there is something called "name" that is part of the object called "self" and the other `name` is a local variable. Since we explicitly indicate which name we are referring to, there is no confusion.
When creating new instance `p`, of the class `Person`, we do so by using the class name, followed by the arguments in the parentheses: p = Person('Swaroop').
We do not explicitly call the `__init__` method.
This is the special significance of this method.
Now, we are able to use the `self.name` field in our methods which is demonstrated in the `say_hi` method.
## Class And Object Variables
We have already discussed the functionality part of classes and objects (i.e. methods), now let us learn about the data part. The data part, i.e. fields, are nothing but ordinary variables that are _bound_ to the **namespaces** of the classes and objects. This means that these names are valid within the context of these classes and objects only. That's why they are called _name spaces_.
There are two types of _fields_ - class variables and object variables which are classified depending on whether the class or the object _owns_ the variables respectively.
**Class variables** are shared - they can be accessed by all instances of that class. There is only one copy of the class variable and when any one object makes a change to a class variable, that change will be seen by all the other instances.
**Object variables** are owned by each individual object/instance of the class. In this case, each object has its own copy of the field i.e. they are not shared and are not related in any way to the field by the same name in a different instance. An example will make this easy to understand (save as `oop_objvar.py`):
<pre><code class="lang-python">class Robot:
"""Represents a robot, with a name."""
# A class variable, counting the number of robots
population = 0
def __init__(self, name):
"""Initializes the data."""
self.name = name
print("(Initializing {})".format(self.name))
# When this person is created, the robot
# adds to the population
Robot.population += 1
def die(self):
"""I am dying."""
print("{} is being destroyed!".format(self.name))
Robot.population -= 1
if Robot.population == 0:
print("{} was the last one.".format(self.name))
else:
print("There are still {:d} robots working.".format(
Robot.population))
def say_hi(self):
"""Greeting by the robot.
Yeah, they can do that."""
print("Greetings, my masters call me {}.".format(self.name))
@classmethod
def how_many(cls):
"""Prints the current population."""
print("We have {:d} robots.".format(cls.population))
droid1 = Robot("R2-D2")
droid1.say_hi()
Robot.how_many()
droid2 = Robot("C-3PO")
droid2.say_hi()
Robot.how_many()
print("\nRobots can do some work here.\n")
print("Robots have finished their work. So let's destroy them.")
droid1.die()
droid2.die()
Robot.how_many()
</code></pre>
Output:
<pre><code>$ python oop_objvar.py
(Initializing R2-D2)
Greetings, my masters call me R2-D2.
We have 1 robots.
(Initializing C-3PO)
Greetings, my masters call me C-3PO.
We have 2 robots.
Robots can do some work here.
Robots have finished their work. So let's destroy them.
R2-D2 is being destroyed!
There are still 1 robots working.
C-3PO is being destroyed!
C-3PO was the last one.
We have 0 robots.
</code></pre>
**How It Works**
This is a long example but helps demonstrate the nature of class and object variables. Here, `population` belongs to the `Robot` class and hence is a class variable. The `name` variable belongs to the object (it is assigned using `self`) and hence is an object variable.
Thus, we refer to the `population` class variable as `Robot.population` and not as `self.population`. We refer to the object variable `name` using `self.name` notation in the methods of that object. Remember this simple difference between class and object variables. Also note that an object variable with the same name as a class variable will hide the class variable!
Instead of `Robot.population`, we could have also used `self.__class__.population` because every object refers to its class via the `self.__class__` attribute.
The `how_many` is actually a method that belongs to the class and not to the object. This means we can define it as either a `classmethod` or a `staticmethod` depending on whether we need to know which class we are part of. Since we refer to a class variable, let's use `classmethod`.
We have marked the `how_many` method as a class method using a decorator.
Decorators can be imagined to be a shortcut to calling a wrapper function (i.e. a function that "wraps" around another function so that it can do something before or after the inner function), so applying the `@classmethod` decorator is the same as calling:
```python
how_many = classmethod(how_many)
```
Observe that the `__init__` method is used to initialize the `Robot` instance with a name. In this method, we increase the `population` count by 1 since we have one more robot being added. Also observe that the values of `self.name` is specific to each object which indicates the nature of object variables.
Remember, that you must refer to the variables and methods of the same object using the `self` *only*. This is called an *attribute reference*.
In this program, we also see the use of *docstrings* for classes as well as methods. We can access the class docstring at runtime using `Robot.__doc__` and the method docstring as `Robot.say_hi.__doc__`
In the `die` method, we simply decrease the `Robot.population` count by 1.
All class members are public. One exception: If you use data members with names using the _double underscore prefix_ such as `__privatevar`, Python uses name-mangling to effectively make it a private variable.
Thus, the convention followed is that any variable that is to be used only within the class or object should begin with an underscore and all other names are public and can be used by other classes/objects. Remember that this is only a convention and is not enforced by Python (except for the double underscore prefix).
> **Note for C++/Java/C# Programmers**
>
> All class members (including the data members) are _public_ and all the methods are _virtual_ in Python.
## Inheritance
One of the major benefits of object oriented programming is **reuse** of code and one of the ways this is achieved is through the **inheritance** mechanism. Inheritance can be best imagined as implementing a **type and subtype** relationship between classes.
Suppose you want to write a program which has to keep track of the teachers and students in a college. They have some common characteristics such as name, age and address. They also have specific characteristics such as salary, courses and leaves for teachers and, marks and fees for students.
You can create two independent classes for each type and process them but adding a new common characteristic would mean adding to both of these independent classes. This quickly becomes unwieldy.
A better way would be to create a common class called `SchoolMember` and then have the teacher and student classes _inherit_ from this class, i.e. they will become sub-types of this type (class) and then we can add specific characteristics to these sub-types.
There are many advantages to this approach. If we add/change any functionality in `SchoolMember`, this is automatically reflected in the subtypes as well. For example, you can add a new ID card field for both teachers and students by simply adding it to the SchoolMember class. However, changes in the subtypes do not affect other subtypes. Another advantage is that you can refer to a teacher or student object as a `SchoolMember` object which could be useful in some situations such as counting of the number of school members. This is called **polymorphism** where a sub-type can be substituted in any situation where a parent type is expected, i.e. the object can be treated as an instance of the parent class.
Also observe that we reuse the code of the parent class and we do not need to repeat it in the different classes as we would have had to in case we had used independent classes.
The `SchoolMember` class in this situation is known as the **base class** or the **superclass**. The `Teacher` and `Student` classes are called the **derived classes** or **subclasses**.
We will now see this example as a program (save as `oop_subclass.py`):
<pre><code class="lang-python">class SchoolMember:
'''Represents any school member.'''
def __init__(self, name, age):
self.name = name
self.age = age
print('(Initialized SchoolMember: {})'.format(self.name))
def tell(self):
'''Tell my details.'''
print('Name:"{}" Age:"{}"'.format(self.name, self.age), end=" ")
class Teacher(SchoolMember):
'''Represents a teacher.'''
def __init__(self, name, age, salary):
SchoolMember.__init__(self, name, age)
self.salary = salary
print('(Initialized Teacher: {})'.format(self.name))
def tell(self):
SchoolMember.tell(self)
print('Salary: "{:d}"'.format(self.salary))
class Student(SchoolMember):
'''Represents a student.'''
def __init__(self, name, age, marks):
SchoolMember.__init__(self, name, age)
self.marks = marks
print('(Initialized Student: {})'.format(self.name))
def tell(self):
SchoolMember.tell(self)
print('Marks: "{:d}"'.format(self.marks))
t = Teacher('Mrs. Shrividya', 40, 30000)
s = Student('Swaroop', 25, 75)
# prints a blank line
print()
members = [t, s]
for member in members:
# Works for both Teachers and Students
member.tell()
</code></pre>
Output:
<pre><code>$ python oop_subclass.py
(Initialized SchoolMember: Mrs. Shrividya)
(Initialized Teacher: Mrs. Shrividya)
(Initialized SchoolMember: Swaroop)
(Initialized Student: Swaroop)
Name:"Mrs. Shrividya" Age:"40" Salary: "30000"
Name:"Swaroop" Age:"25" Marks: "75"
</code></pre>
**How It Works**
To use inheritance, we specify the base class names in a tuple following the class name in the class definition (for example, `class Teacher(SchoolMember)`). Next, we observe that the `__init__` method of the base class is explicitly called using the `self` variable so that we can initialize the base class part of an instance in the subclass. This is very important to remember- Since we are defining a `__init__` method in `Teacher` and `Student` subclasses, Python does not automatically call the constructor of the base class `SchoolMember`, you have to explicitly call it yourself.
In contrast, if we have not defined an `__init__` method in a subclass, Python will call the constructor of the base class automatically.
While we could treat instances of `Teacher` or `Student` as we would an instance of `SchoolMember` and access the `tell` method of `SchoolMember` by simply typing `Teacher.tell` or `Student.tell`, we instead define another `tell` method in each subclass (using the `tell` method of `SchoolMember` for part of it) to tailor it for that subclass. Because we have done this, when we write `Teacher.tell` Python uses the `tell` method for that subclass vs the superclass. However, if we did not have a `tell` method in the subclass, Python would use the `tell` method in the superclass. Python always starts looking for methods in the actual subclass type first, and if it doesnt find anything, it starts looking at the methods in the subclasss base classes, one by one in the order they are specified in the tuple (here we only have 1 base class, but you can have multiple base classes) in the class definition.
A note on terminology - if more than one class is listed in the inheritance tuple, then it is called **multiple inheritance**.
The `end` parameter is used in the `print` function in the superclass's `tell()` method to print a line and allow the next print to continue on the same line. This is a trick to make `print` not print a `\n` (newline) symbol at the end of the printing.
## Summary
We have now explored the various aspects of classes and objects as well as the various terminologies associated with it. We have also seen the benefits and pitfalls of object-oriented programming. Python is highly object-oriented and understanding these concepts carefully will help you a lot in the long run.
Next, we will learn how to deal with input/output and how to access files in Python.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Operators and Expressions
Most statements (logical lines) that you write will contain _expressions_. A simple example of an expression is `2 + 3`. An expression can be broken down into operators and operands.
_Operators_ are functionality that do something and can be represented by symbols such as `+` or by special keywords. Operators require some data to operate on and such data is called _operands_. In this case, `2` and `3` are the operands.
## Operators
We will briefly take a look at the operators and their usage.
Note that you can evaluate the expressions given in the examples using the interpreter interactively. For example, to test the expression `2 + 3`, use the interactive Python interpreter prompt:
```python
>>> 2 + 3
5
>>> 3 * 5
15
>>>
```
Here is a quick overview of the available operators:
- `+` (plus)
- Adds two objects
- `3 + 5` gives `8`. `'a' + 'b'` gives `'ab'`.
- `-` (minus)
- Gives the subtraction of one number from the other; if the first operand is absent it is assumed to be zero.
- `-5.2` gives a negative number and `50 - 24` gives `26`.
- `*` (multiply)
- Gives the multiplication of the two numbers or returns the string repeated that many times.
- `2 * 3` gives `6`. `'la' * 3` gives `'lalala'`.
- `**` (power)
- Returns x to the power of y
- `3 ** 4` gives `81` (i.e. `3 * 3 * 3 * 3`)
- `/` (divide)
- Divide x by y
- `13 / 3` gives `4.333333333333333`
- `//` (divide and floor)
- Divide x by y and round the answer _down_ to the nearest integer value. Note that if one of the values is a float, you'll get back a float.
- `13 // 3` gives `4`
- `-13 // 3` gives `-5`
- `9//1.81` gives `4.0`
- `%` (modulo)
- Returns the remainder of the division
- `13 % 3` gives `1`. `-25.5 % 2.25` gives `1.5`.
- `<<` (left shift)
- Shifts the bits of the number to the left by the number of bits specified. (Each number is represented in memory by bits or binary digits i.e. 0 and 1)
- `2 << 2` gives `8`. `2` is represented by `10` in bits.
- Left shifting by 2 bits gives `1000` which represents the decimal `8`.
- `>>` (right shift)
- Shifts the bits of the number to the right by the number of bits specified.
- `11 >> 1` gives `5`.
- `11` is represented in bits by `1011` which when right shifted by 1 bit gives `101`which is the decimal `5`.
- `&` (bit-wise AND)
- Bit-wise AND of the numbers: if both bits are `1`, the result is `1`. Otherwise, it's `0`.
- `5 & 3` gives `1` (`0101 & 0011` gives `0001`)
- `|` (bit-wise OR)
- Bitwise OR of the numbers: if both bits are `0`, the result is `0`. Otherwise, it's `1`.
- `5 | 3` gives `7` (`0101 | 0011` gives `0111`)
- `^` (bit-wise XOR)
- Bitwise XOR of the numbers: if both bits (`1 or 0`) are the same, the result is `0`. Otherwise, it's `1`.
- `5 ^ 3` gives `6` (`O101 ^ 0011` gives `0110`)
- `~` (bit-wise invert)
- The bit-wise inversion of x is -(x+1)
- `~5` gives `-6`. More details at http://stackoverflow.com/a/11810203
- `<` (less than)
- Returns whether x is less than y. All comparison operators return `True` or `False`. Note the capitalization of these names.
- `5 < 3` gives `False` and `3 < 5` gives `True`.
- Comparisons can be chained arbitrarily: `3 < 5 < 7` gives `True`.
- `>` (greater than)
- Returns whether x is greater than y
- `5 > 3` returns `True`. If both operands are numbers, they are first converted to a common type. Otherwise, it always returns `False`.
- `<=` (less than or equal to)
- Returns whether x is less than or equal to y
- `x = 3; y = 6; x <= y` returns `True`
- `>=` (greater than or equal to)
- Returns whether x is greater than or equal to y
- `x = 4; y = 3; x >= 3` returns `True`
- `==` (equal to)
- Compares if the objects are equal
- `x = 2; y = 2; x == y` returns `True`
- `x = 'str'; y = 'stR'; x == y` returns `False`
- `x = 'str'; y = 'str'; x == y` returns `True`
- `!=` (not equal to)
- Compares if the objects are not equal
- `x = 2; y = 3; x != y` returns `True`
- `not` (boolean NOT)
- If x is `True`, it returns `False`. If x is `False`, it returns `True`.
- `x = True; not x` returns `False`.
- `and` (boolean AND)
- `x and y` returns `False` if x is `False`, else it returns evaluation of y
- `x = False; y = True; x and y` returns `False` since x is False. In this case, Python will not evaluate y since it knows that the left hand side of the 'and' expression is `False` which implies that the whole expression will be `False` irrespective of the other values. This is called short-circuit evaluation.
- `or` (boolean OR)
- If x is `True`, it returns True, else it returns evaluation of y
- `x = True; y = False; x or y` returns `True`. Short-circuit evaluation applies here as well.
## Shortcut for math operation and assignment
It is common to run a math operation on a variable and then assign the result of the operation back to the variable, hence there is a shortcut for such expressions:
```python
a = 2
a = a * 3
```
can be written as:
```python
a = 2
a *= 3
```
Notice that `var = var operation expression` becomes `var operation= expression`.
## Evaluation Order
If you had an expression such as `2 + 3 * 4`, is the addition done first or the multiplication? Our high school maths tells us that the multiplication should be done first. This means that the multiplication operator has higher precedence than the addition operator.
The following table gives the precedence table for Python, from the lowest precedence (least binding) to the highest precedence (most binding). This means that in a given expression, Python will first evaluate the operators and expressions lower in the table before the ones listed higher in the table.
The following table, taken from the Python reference manual, is provided for the sake of completeness. It is far better to use parentheses to group operators and operands appropriately in order to explicitly specify the precedence. This makes the program more readable. See Changing the Order of Evaluation below for details.
- `lambda` : Lambda Expression
- `if - else` : Conditional expression
- `or` : Boolean OR
- `and` : Boolean AND
- `not x` : Boolean NOT
- `in, not in, is, is not, <, <=, >, >=, !=, ==` : Comparisons, including membership tests and identity tests
- `|` : Bitwise OR
- `^` : Bitwise XOR
- `&` : Bitwise AND
- `<<, >>` : Shifts
- `+, -` : Addition and subtraction
- `*, /, //, %` : Multiplication, Division, Floor Division and Remainder
- `+x, -x, ~x` : Positive, Negative, bitwise NOT
- `**` : Exponentiation
- `x[index], x[index:index], x(arguments...), x.attribute` : Subscription, slicing, call, attribute reference
- `(expressions...), [expressions...], {key: value...}, {expressions...}` : Binding or tuple display, list display, dictionary display, set display
The operators which we have not already come across will be explained in later chapters.
Operators with the _same precedence_ are listed in the same row in the above table. For example, `+` and `-` have the same precedence.
## Changing the Order Of Evaluation
To make the expressions more readable, we can use parentheses. For example, `2 + (3 * 4)` is definitely easier to understand than `2 + 3 * 4` which requires knowledge of the operator precedences. As with everything else, the parentheses should be used reasonably (do not overdo it) and should not be redundant, as in `(2 + (3 * 4))`.
There is an additional advantage to using parentheses - it helps us to change the order of evaluation. For example, if you want addition to be evaluated before multiplication in an expression, then you can write something like `(2 + 3) * 4`.
## Associativity
Operators are usually associated from left to right. This means that operators with the same precedence are evaluated in a left to right manner. For example, `2 + 3 + 4` is evaluated as `(2 + 3) + 4`.
## Expressions
Example (save as `expression.py`):
```python
length = 5
breadth = 2
area = length * breadth
print('Area is', area)
print('Perimeter is', 2 * (length + breadth))
```
Output:
```
$ python expression.py
Area is 10
Perimeter is 14
```
**How It Works**
The length and breadth of the rectangle are stored in variables by the same name. We use these to calculate the area and perimeter of the rectangle with the help of expressions. We store the result of the expression `length * breadth` in the variable `area` and then print it using the `print` function. In the second case, we directly use the value of the expression `2 * (length + breadth)` in the print function.
Also, notice how Python _pretty-prints_ the output. Even though we have not specified a space between `'Area is'` and the variable `area`, Python puts it for us so that we get a clean nice output and the program is much more readable this way (since we don't need to worry about spacing in the strings we use for output). This is an example of how Python makes life easy for the programmer.
## Summary
We have seen how to use operators, operands and expressions - these are the basic building blocks of any program. Next, we will see how to make use of these in our programs using statements.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Problem Solving
We have explored various parts of the Python language and now we will take a look at how all these parts fit together, by designing and writing a program which _does_ something useful. The idea is to learn how to write a Python script on your own.
## The Problem
The problem we want to solve is:
> I want a program which creates a backup of all my important files.
Although, this is a simple problem, there is not enough information for us to get started with the solution. A little more *analysis* is required. For example, how do we specify _which_ files are to be backed up? _How_ are they stored? _Where_ are they stored?
After analyzing the problem properly, we *design* our program. We make a list of things about how our program should work. In this case, I have created the following list on how _I_ want it to work. If you do the design, you may not come up with the same kind of analysis since every person has their own way of doing things, so that is perfectly okay.
- The files and directories to be backed up are specified in a list.
- The backup must be stored in a main backup directory.
- The files are backed up into a zip file.
- The name of the zip archive is the current date and time.
- We use the standard `zip` command available by default in any standard GNU/Linux or Unix distribution. Note that you can use any archiving command you want as long as it has a command line interface.
> **For Windows users**
>
> Windows users can install the `zip` command from the GnuWin32 project page and add `C:\Program Files\GnuWin32\bin` to your system `PATH` environment variable, similar to what we did for recognizing the python command itself.
## The Solution
As the design of our program is now reasonably stable, we can write the code which is an *implementation* of our solution.
Save as `backup_ver1.py`:
<pre><code class="lang-python">import os
import time
# 1. The files and directories to be backed up are
# specified in a list.
# Example on Windows:
# source = ['"C:\\My Documents"']
# Example on Mac OS X and Linux:
source = ['/Users/swa/notes']
# Notice we have to use double quotes inside a string
# for names with spaces in it. We could have also used
# a raw string by writing [r'C:\My Documents'].
# 2. The backup must be stored in a
# main backup directory
# Example on Windows:
# target_dir = 'E:\\Backup'
# Example on Mac OS X and Linux:
target_dir = '/Users/swa/backup'
# Remember to change this to which folder you will be using
# 3. The files are backed up into a zip file.
# 4. The name of the zip archive is the current date and time
target = target_dir + os.sep + \
time.strftime('%Y%m%d%H%M%S') + '.zip'
# Create target directory if it is not present
if not os.path.exists(target_dir):
os.mkdir(target_dir) # make directory
# 5. We use the zip command to put the files in a zip archive
zip_command = 'zip -r {0} {1}'.format(target,
' '.join(source))
# Run the backup
print('Zip command is:')
print(zip_command)
print('Running:')
if os.system(zip_command) == 0:
print('Successful backup to', target)
else:
print('Backup FAILED')
</code></pre>
Output:
<pre><code>$ python backup_ver1.py
Zip command is:
zip -r /Users/swa/backup/20140328084844.zip /Users/swa/notes
Running:
adding: Users/swa/notes/ (stored 0%)
adding: Users/swa/notes/blah1.txt (stored 0%)
adding: Users/swa/notes/blah2.txt (stored 0%)
adding: Users/swa/notes/blah3.txt (stored 0%)
Successful backup to /Users/swa/backup/20140328084844.zip
</code></pre>
Now, we are in the *testing* phase where we test that our program works properly. If it doesn't behave as expected, then we have to *debug* our program i.e. remove the *bugs* (errors) from the program.
If the above program does not work for you, copy the line printed after the `Zip command is` line in the output, paste it in the shell (on GNU/Linux and Mac OS X) / `cmd` (on Windows), see what the error is and try to fix it. Also check the zip command manual on what could be wrong. If this command succeeds, then the problem might be in the Python program itself, so check if it exactly matches the program written above.
**How It Works**
You will notice how we have converted our *design* into *code* in a step-by-step manner.
We make use of the `os` and `time` modules by first importing them. Then, we specify the files and directories to be backed up in the `source` list. The target directory is where we store all the backup files and this is specified in the `target_dir` variable. The name of the zip archive that we are going to create is the current date and time which we generate using the `time.strftime()` function. It will also have the `.zip` extension and will be stored in the `target_dir` directory.
Notice the use of the `os.sep` variable - this gives the directory separator according to your operating system, i.e. it will be `'/'` in GNU/Linux, Unix, macOS, and will be `'\\'` in Windows. Using `os.sep` instead of these characters directly will make our program portable and work across all of these systems.
The `time.strftime()` function takes a specification such as the one we have used in the above program. The `%Y` specification will be replaced by the year with the century. The `%m` specification will be replaced by the month as a decimal number between `01` and `12` and so on. The complete list of such specifications can be found in the Python Reference Manual.
We create the name of the target zip file using the addition operator which _concatenates_ the strings i.e. it joins the two strings together and returns a new one. Then, we create a string `zip_command` which contains the command that we are going to execute. You can check if this command works by running it in the shell (GNU/Linux terminal or DOS prompt).
The `zip` command that we are using has some options available, and one of these options is `-r`. The `-r` option specifies that the zip command should work **r**ecursively for directories, i.e. it should include all the subdirectories and files. Options are followed by the name of the zip archive to create, followed by the list of files and directories to backup. We convert the `source` list into a string using the `join` method of strings which we have already seen how to use.
Then, we finally *run* the command using the `os.system` function which runs the command as if it was run from the *system* i.e. in the shell - it returns `0` if the command was successfully, else it returns an error number.
Depending on the outcome of the command, we print the appropriate message that the backup has failed or succeeded.
That's it, we have created a script to take a backup of our important files!
> **Note to Windows Users**
>
> Instead of double backslash escape sequences, you can also use raw strings. For example, use `'C:\\Documents'` or `r'C:\Documents'`. However, do *not* use `'C:\Documents'` since you end up using an unknown escape sequence `\D`.
Now that we have a working backup script, we can use it whenever we want to take a backup of the files. This is called the *operation* phase or the *deployment* phase of the software.
The above program works properly, but (usually) first programs do not work exactly as you expect. For example, there might be problems if you have not designed the program properly or if you have made a mistake when typing the code, etc. Appropriately, you will have to go back to the design phase or you will have to debug your program.
## Second Version
The first version of our script works. However, we can make some refinements to it so that it can work better on a daily basis. This is called the *maintenance* phase of the software.
One of the refinements I felt was useful is a better file-naming mechanism - using the _time_ as the name of the file within a directory with the current _date_ as a directory within the main backup directory. The first advantage is that your backups are stored in a hierarchical manner and therefore it is much easier to manage. The second advantage is that the filenames are much shorter. The third advantage is that separate directories will help you check if you have made a backup for each day since the directory would be created only if you have made a backup for that day.
Save as `backup_ver2.py`:
<pre><code class="lang-python">import os
import time
# 1. The files and directories to be backed up are
# specified in a list.
# Example on Windows:
# source = ['"C:\\My Documents"', 'C:\\Code']
# Example on Mac OS X and Linux:
source = ['/Users/swa/notes']
# Notice we had to use double quotes inside the string
# for names with spaces in it.
# 2. The backup must be stored in a
# main backup directory
# Example on Windows:
# target_dir = 'E:\\Backup'
# Example on Mac OS X and Linux:
target_dir = '/Users/swa/backup'
# Remember to change this to which folder you will be using
# Create target directory if it is not present
if not os.path.exists(target_dir):
os.mkdir(target_dir) # make directory
# 3. The files are backed up into a zip file.
# 4. The current day is the name of the subdirectory
# in the main directory.
today = target_dir + os.sep + time.strftime('%Y%m%d')
# The current time is the name of the zip archive.
now = time.strftime('%H%M%S')
# The name of the zip file
target = today + os.sep + now + '.zip'
# Create the subdirectory if it isn't already there
if not os.path.exists(today):
os.mkdir(today)
print('Successfully created directory', today)
# 5. We use the zip command to put the files in a zip archive
zip_command = 'zip -r {0} {1}'.format(target,
' '.join(source))
# Run the backup
print('Zip command is:')
print(zip_command)
print('Running:')
if os.system(zip_command) == 0:
print('Successful backup to', target)
else:
print('Backup FAILED')
</code></pre>
Output:
<pre><code>$ python backup_ver2.py
Successfully created directory /Users/swa/backup/20140329
Zip command is:
zip -r /Users/swa/backup/20140329/073201.zip /Users/swa/notes
Running:
adding: Users/swa/notes/ (stored 0%)
adding: Users/swa/notes/blah1.txt (stored 0%)
adding: Users/swa/notes/blah2.txt (stored 0%)
adding: Users/swa/notes/blah3.txt (stored 0%)
Successful backup to /Users/swa/backup/20140329/073201.zip
</code></pre>
**How It Works**
Most of the program remains the same. The changes are that we check if there is a directory with the current day as its name inside the main backup directory using the `os.path.exists` function. If it doesn't exist, we create it using the `os.mkdir` function.
## Third Version
The second version works fine when I do many backups, but when there are lots of backups, I am finding it hard to differentiate what the backups were for! For example, I might have made some major changes to a program or presentation, then I want to associate what those changes are with the name of the zip archive. This can be easily achieved by attaching a user-supplied comment to the name of the zip archive.
WARNING: The following program does not work, so do not be alarmed, please follow along because there's a lesson in here.
Save as `backup_ver3.py`:
<pre><code class="lang-python">import os
import time
# 1. The files and directories to be backed up are
# specified in a list.
# Example on Windows:
# source = ['"C:\\My Documents"', 'C:\\Code']
# Example on Mac OS X and Linux:
source = ['/Users/swa/notes']
# Notice we had to use double quotes inside the string
# for names with spaces in it.
# 2. The backup must be stored in a
# main backup directory
# Example on Windows:
# target_dir = 'E:\\Backup'
# Example on Mac OS X and Linux:
target_dir = '/Users/swa/backup'
# Remember to change this to which folder you will be using
# Create target directory if it is not present
if not os.path.exists(target_dir):
os.mkdir(target_dir) # make directory
# 3. The files are backed up into a zip file.
# 4. The current day is the name of the subdirectory
# in the main directory.
today = target_dir + os.sep + time.strftime('%Y%m%d')
# The current time is the name of the zip archive.
now = time.strftime('%H%M%S')
# Take a comment from the user to
# create the name of the zip file
comment = input('Enter a comment --> ')
# Check if a comment was entered
if len(comment) == 0:
target = today + os.sep + now + '.zip'
else:
target = today + os.sep + now + '_' +
comment.replace(' ', '_') + '.zip'
# Create the subdirectory if it isn't already there
if not os.path.exists(today):
os.mkdir(today)
print('Successfully created directory', today)
# 5. We use the zip command to put the files in a zip archive
zip_command = "zip -r {0} {1}".format(target,
' '.join(source))
# Run the backup
print('Zip command is:')
print(zip_command)
print('Running:')
if os.system(zip_command) == 0:
print('Successful backup to', target)
else:
print('Backup FAILED')
</code></pre>
Output:
<pre><code>$ python backup_ver3.py
File "backup_ver3.py", line 39
target = today + os.sep + now + '_' +
^
SyntaxError: invalid syntax
</code></pre>
**How This (does not) Work**
*This program does not work!* Python says there is a syntax error which means that the script does not satisfy the structure that Python expects to see. When we observe the error given by Python, it also tells us the place where it detected the error as well. So we start *debugging* our program from that line.
On careful observation, we see that the single logical line has been split into two physical lines but we have not specified that these two physical lines belong together. Basically, Python has found the addition operator (`+`) without any operand in that logical line and hence it doesn't know how to continue. Remember that we can specify that the logical line continues in the next physical line by the use of a backslash at the end of the physical line. So, we make this correction to our program. This correction of the program when we find errors is called *bug fixing*.
## Fourth Version
Save as `backup_ver4.py`:
<pre><code class="lang-python">import os
import time
# 1. The files and directories to be backed up are
# specified in a list.
# Example on Windows:
# source = ['"C:\\My Documents"', 'C:\\Code']
# Example on Mac OS X and Linux:
source = ['/Users/swa/notes']
# Notice we had to use double quotes inside the string
# for names with spaces in it.
# 2. The backup must be stored in a
# main backup directory
# Example on Windows:
# target_dir = 'E:\\Backup'
# Example on Mac OS X and Linux:
target_dir = '/Users/swa/backup'
# Remember to change this to which folder you will be using
# Create target directory if it is not present
if not os.path.exists(target_dir):
os.mkdir(target_dir) # make directory
# 3. The files are backed up into a zip file.
# 4. The current day is the name of the subdirectory
# in the main directory.
today = target_dir + os.sep + time.strftime('%Y%m%d')
# The current time is the name of the zip archive.
now = time.strftime('%H%M%S')
# Take a comment from the user to
# create the name of the zip file
comment = input('Enter a comment --> ')
# Check if a comment was entered
if len(comment) == 0:
target = today + os.sep + now + '.zip'
else:
target = today + os.sep + now + '_' + \
comment.replace(' ', '_') + '.zip'
# Create the subdirectory if it isn't already there
if not os.path.exists(today):
os.mkdir(today)
print('Successfully created directory', today)
# 5. We use the zip command to put the files in a zip archive
zip_command = 'zip -r {0} {1}'.format(target,
' '.join(source))
# Run the backup
print('Zip command is:')
print(zip_command)
print('Running:')
if os.system(zip_command) == 0:
print('Successful backup to', target)
else:
print('Backup FAILED')
</code></pre>
Output:
<pre><code>$ python backup_ver4.py
Enter a comment --> added new examples
Zip command is:
zip -r /Users/swa/backup/20140329/074122_added_new_examples.zip /Users/swa/notes
Running:
adding: Users/swa/notes/ (stored 0%)
adding: Users/swa/notes/blah1.txt (stored 0%)
adding: Users/swa/notes/blah2.txt (stored 0%)
adding: Users/swa/notes/blah3.txt (stored 0%)
Successful backup to /Users/swa/backup/20140329/074122_added_new_examples.zip
</code></pre>
**How It Works**
This program now works! Let us go through the actual enhancements that we had made in version 3. We take in the user's comments using the `input` function and then check if the user actually entered something by finding out the length of the input using the `len` function. If the user has just pressed `enter` without entering anything (maybe it was just a routine backup or no special changes were made), then we proceed as we have done before.
However, if a comment was supplied, then this is attached to the name of the zip archive just before the `.zip` extension. Notice that we are replacing spaces in the comment with underscores - this is because managing filenames without spaces is much easier.
## More Refinements
The fourth version is a satisfactorily working script for most users, but there is always room for improvement. For example, you can include a _verbosity_ level for the zip command by specifying a `-v` option to make your program become more talkative or a `-q` option to make it _quiet_.
Another possible enhancement would be to allow extra files and directories to be passed to the script at the command line. We can get these names from the `sys.argv` list and we can add them to our `source` list using the `extend` method provided by the `list` class.
The most important refinement would be to not use the `os.system` way of creating archives and instead using the zipfile or tarfile built-in modules to create these archives. They are part of the standard library and available already for you to use without external dependencies on the zip program to be available on your computer.
However, I have been using the `os.system` way of creating a backup in the above examples purely for pedagogical purposes, so that the example is simple enough to be understood by everybody but real enough to be useful.
Can you try writing the fifth version that uses the zipfile module instead of the `os.system` call?
## The Software Development Process
We have now gone through the various *phases* in the process of writing a software. These phases can be summarised as follows:
1. What (Analysis)
2. How (Design)
3. Do It (Implementation)
4. Test (Testing and Debugging)
5. Use (Operation or Deployment)
6. Maintain (Refinement)
A recommended way of writing programs is the procedure we have followed in creating the backup script: Do the analysis and design. Start implementing with a simple version. Test and debug it. Use it to ensure that it works as expected. Now, add any features that you want and continue to repeat the Do It-Test-Use cycle as many times as required.
Remember:
> Software is grown, not built.
> -- Bill de hÓra
## Summary
We have seen how to create our own Python programs/scripts and the various stages involved in writing such programs. You may find it useful to create your own program just like we did in this chapter so that you become comfortable with Python as well as problem-solving.
Next, we will discuss object-oriented programming.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Standard Library
The Python Standard Library contains a huge number of useful modules and is part of every standard Python installation. It is important to become familiar with the Python Standard Library since many problems can be solved quickly if you are familiar with the range of things that these libraries can do.
We will explore some of the commonly used modules in this library. You can find complete details for all of the modules in the Python Standard Library in the 'Library Reference' section of the documentation that comes with your Python installation.
Let us explore a few useful modules.
> CAUTION: If you find the topics in this chapter too advanced, you may skip this chapter. However, I highly recommend coming back to this chapter when you are more comfortable with programming using Python.
## `sys` module
The `sys` module contains system-specific functionality. We have already seen that the `sys.argv` list contains the command-line arguments.
Suppose we want to check the version of the Python software being used, the `sys` module gives us that information.
<!-- The output should match pythonVersion variable in book.json -->
```python
>>> import sys
>>> sys.version_info
sys.version_info(major=3, minor=6, micro=0, releaselevel='final', serial=0)
>>> sys.version_info.major == 3
True
```
**How It Works**
The `sys` module has a `version_info` tuple that gives us the version information. The first entry is the major version. We can pull out this information to use it.
## `logging` module
What if you wanted to have some debugging messages or important messages to be stored somewhere so that you can check whether your program has been running as you would expect it? How do you "store somewhere" these messages? This can be achieved using the `logging` module.
Save as `stdlib_logging.py`:
<pre><code class="lang-python">import os
import platform
import logging
if platform.platform().startswith('Windows'):
logging_file = os.path.join(os.getenv('HOMEDRIVE'),
os.getenv('HOMEPATH'),
'test.log')
else:
logging_file = os.path.join(os.getenv('HOME'),
'test.log')
print("Logging to", logging_file)
logging.basicConfig(
level=logging.DEBUG,
format='%(asctime)s : %(levelname)s : %(message)s',
filename=logging_file,
filemode='w',
)
logging.debug("Start of the program")
logging.info("Doing something")
logging.warning("Dying now")
</code></pre>
Output:
<pre><code>$ python stdlib_logging.py
Logging to /Users/swa/test.log
$ cat /Users/swa/test.log
2014-03-29 09:27:36,660 : DEBUG : Start of the program
2014-03-29 09:27:36,660 : INFO : Doing something
2014-03-29 09:27:36,660 : WARNING : Dying now
</code></pre>
The `cat` command is used in the command line to read the 'test.log' file. If the `cat` command is not available, you can open the `test.log` file in a text editor instead.
**How It Works**
We use three modules from the standard library - the `os` module for interacting with the operating system, the `platform` module for information about the platform i.e. the operating system and the `logging` module to *log* information.
First, we check which operating system we are using by checking the string returned by `platform.platform()` (for more information, see `import platform; help(platform)`). If it is Windows, we figure out the home drive, the home folder and the filename where we want to store the information. Putting these three parts together, we get the full location of the file. For other platforms, we need to know just the home folder of the user and we get the full location of the file.
We use the `os.path.join()` function to put these three parts of the location together. The reason to use a special function rather than just adding the strings together is because this function will ensure the full location matches the format expected by the operating system. Note: the `join()` method we use here that's part of the `os` module is different from the string method `join()` that we've used elsewhere in this book.
We configure the `logging` module to write all the messages in a particular format to the file we have specified.
Finally, we can put messages that are either meant for debugging, information, warning or even critical messages. Once the program has run, we can check this file and we will know what happened in the program, even though no information was displayed to the user running the program.
## Module of the Week Series
There is much more to be explored in the standard library such as debugging,
handling command line options, regular expressions and so on.
The best way to further explore the standard library is to read Doug Hellmann's excellent Python Module of the Week series (also available as a book) and reading the Python documentation.
## Summary
We have explored some of the functionality of many modules in the Python Standard Library. It is highly recommended to browse through the Python Standard Library documentation to get an idea of all the modules that are available.
Next, we will cover various aspects of Python that will make our tour of Python more _complete_.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Translations
There are many translations of the book available in different human languages, thanks to many tireless volunteers!
If you want to help with these translations, please see the list of volunteers and languages below and decide if you want to start a new translation or help in existing translation projects.
If you plan to start a new translation, please read the Translation how-to.
## Arabic
Below is the link for the Arabic version. Thanks to Ashraf Ali Khalaf for translating the book, you can read the whole book online at <http://www.khaledhosny.org/byte-of-python/index.html> or you can download it from sourceforge.net for more info see <http://itwadi.com/byteofpython_arabi>.
## Azerbaijani
Jahangir Shabiyev ([email protected]) has volunteered to translate the book to Azerbaijani. The translation is in progress at https://www.gitbook.com/book/jahangir-sh/piton-sancmasi
## Brazilian Portuguese
There are two translations in various levels of completion and accessibility. The older translation is now missing/lost, and newer translation is incomplete.
Samuel Dias Neto ([email protected]) made the first Brazilian Portuguese translation (older translation) of this book when Python was in 2.3.5 version. This is no longer publicly accessible.
Rodrigo Amaral ([email protected]) has volunteered to translate the book to Brazilian Portuguese, (newer translation) which still remains to be completed.
## Catalan
Moises Gomez ([email protected]) has volunteered to translate the book to Catalan. The translation is in progress.
> Moisès Gómez - I am a developer and also a teacher of programming (normally for people without any previous experience).
>
> Some time ago I needed to learn how to program in Python, and Swaroop's work was really helpful. Clear, concise, and complete enough. Just what I needed.
>
> After this experience, I thought some other people in my country could take benefit from it too. But English language can be a barrier.
>
> So, why not try to translate it? And I did for a previous version of BoP.
>
> I my country there are two official languages. I selected the Catalan language assuming that others will translate it to the more widespread Spanish.
## Chinese
In 2017 which is after 11 years, Mo Lun ([email protected]) re-translated the book from the beginning based on Version 4.0. And the translation is storaged in GitHub and Gitbook. He is keeping follow this translated edition and ready to fix it if there is any wrong or mistake in the translated BoP.
The 2017 translation edition is available in <https://bop.molun.net>.
Mo Lun Says:
> I am a common journalism student from CYU, Beijing. And actually, I am an absolute newbie in Python programming when I start to translate this book. Initially, it was just a whim, but when I done this work, I realized that a decision triggered by interest had prompted me to go so far.
>
> With the help of my predecessors’ translations and the vast amount of information provided by the developed Internet, and with the help of my friends, I prudently presented this translation edition. I just hope my translation work will help other newcomers in learning Python.
>
> At the same time, I am always waiting for my translation of the comments and suggestions, and ready to change or improve this superficial work.
### Earlier Chinese translation
In 2005, Shen Jieyuan translated this book with version 1.20 to Chinese and published it to the Internet. This is the first Chinese edition. In BoP official site, he was called Juan Shen, with Email adderss [email protected]。This edition has been disseminated on the network widely, and the links provided by BoP official site are not available anymore, so that its original source is unable to find. Therefore in here can’t provide a certain address. But you can try to search keywords like “简明Python教程 沈洁元” to find a copy.
Juan Shen says:
> I am a postgraduate at Wireless Telecommunication Graduate School, Beijing University of Technology, China PR. My current research interest is on the synchronization, channel estimation and multi-user detection of multicarrier CDMA system. Python is my major programming language for daily simulation and research job, with the help of Python Numeric, actually. I learned Python just half a year before, but as you can see, it's really easy-understanding, easy-to-use and productive. Just as what is ensured in Swaroop's book, 'It's my favorite programming language now'.
>
> 'A Byte of Python' is my tutorial to learn Python. It's clear and effective to lead you into a world of Python in the shortest time. It's not too long, but efficiently covers almost all important things in Python. I think 'A Byte of Python' should be strongly recommendable for newbies as their first Python tutorial. Just dedicate my translation to the potential millions of Python users in China.
## Chinese Traditional
Fred Lin ([email protected]) has volunteered to translate the book to Chinese Traditional.
It is available at <http://code.google.com/p/zhpy/wiki/ByteOfZhpy>.
An exciting feature of this translation is that it also contains the _executable chinese python sources_ side by side with the original python sources.
> Fred Lin - I'm working as a network firmware engineer at Delta Network, and I'm also a contributor of TurboGears web framework.
>
> As a python evangelist (:-p), I need some material to promote python language. I found 'A Byte of Python' hit the sweet point for both newbies and experienced programmers. 'A Byte of Python' elaborates the python essentials with affordable size.
>
> The translation are originally based on simplified chinese version, and soon a lot of rewrite were made to fit the current wiki version and the quality of reading.
>
> The recent chinese traditional version also featured with executable chinese python sources, which are achieved by my new 'zhpy' (python in chinese) project (launch from Aug 07).
>
> zhpy(pronounce (Z.H.?, or zippy) build a layer upon python to translate or interact with python in chinese(Traditional or Simplified). This project is mainly aimed for education.
## French
Gregory ([email protected]) has volunteered to translate the book to French.
Gérard Labadie ([email protected]) has completed to translate the book to French.
This translation was later ported to the markdown format, updated to match the last version of the book, and published on GitBook by Romain Gilliotte ([email protected]).
It can be found at https://rgilliotte.gitbook.io/byte-of-python/
## German
Lutz Horn ([email protected]), Bernd Hengelein ([email protected]) and Christoph Zwerschke ([email protected]) have volunteered to translate the book to German.
Translation can be found at http://cito.github.io/byte_of_python/
<!-- Their translation was located at http://ftp.jaist.ac.jp/pub//sourceforge/a/ab/abop-german.berlios/ -->
Lutz Horn says:
> I'm 32 years old and have a degree of Mathematics from University of Heidelberg, Germany. Currently I'm working as a software engineer on a publicly funded project to build a web portal for all things related to computer science in Germany.The main language I use as a professional is Java, but I try to do as much as possible with Python behind the scenes. Especially text analysis and conversion is very easy with Python. I'm not very familiar with GUI toolkits, since most of my programming is about web applications, where the user interface is build using Java frameworks like Struts. Currently I try to make more use of the functional programming features of Python and of generators. After taking a short look into Ruby, I was very impressed with the use of blocks in this language. Generally I like the dynamic nature of languages like Python and Ruby since it allows me to do things not possible in more static languages like Java.I've searched for some kind of introduction to programming, suitable to teach a complete non-programmer. I've found the book 'How to Think Like a Computer Scientist: Learning with Python', and 'Dive into Python'. The first is good for beginners but to long to translate. The second is not suitable for beginners. I think 'A Byte of Python' falls nicely between these, since it is not too long, written to the point, and at the same time verbose enough to teach a newbie. Besides this, I like the simple DocBook structure, which makes translating the text a generation the output in various formats a charm.
Bernd Hengelein says:
> Lutz and me are going to do the german translation together. We just started with the intro and preface but we will keep you informed about the progress we make. Ok, now some personal things about me. I am 34 years old and playing with computers since the 1980's, when the "Commodore C64" ruled the nurseries. After studying computer science I started working as a software engineer. Currently I am working in the field of medical imaging for a major german company. Although C++ is the main language I (have to) use for my daily work, I am constantly looking for new things to learn.Last year I fell in love with Python, which is a wonderful language, both for its possibilities and its beauty. I read somewhere in the net about a guy who said that he likes python, because the code looks so beautiful. In my opinion he's absolutly right. At the time I decided to learn python, I noticed that there is very little good documentation in german available. When I came across your book the spontaneous idea of a german translation crossed my mind. Luckily, Lutz had the same idea and we can now divide the work.I am looking forward to a good cooperation!
## Greek
The Greek Ubuntu Community translated the book in Greek, for use in our on-line asynchronous Python lessons that take place in our forums. Contact @savvasradevic for more information.
## Indonesian
Daniel ([email protected]) is translating the book to Indonesian at <http://python.or.id/moin.cgi/ByteofPython>.
Wisnu Priyambodo ([email protected]) also has volunteered to translate the book to Indonesian.
Also, Bagus Aji Santoso ([email protected]) has volunteered.
## Italian (first)
Enrico Morelli ([email protected]) and Massimo Lucci ([email protected]) have volunteered to translate the book to Italian.
The Italian translation is present at <http://www.gentoo.it/Programmazione/byteofpython>.
> _Massimo Lucci and Enrico Morelli_ - we are working at the University of Florence (Italy) - Chemistry Department. I (Massimo) as service engineer and system administrator for Nuclear Magnetic Resonance Spectrometers; Enrico as service engineer and system administrator for our CED and parallel / clustered systems. We are programming on python since about seven years, we had experience working with Linux platforms since ten years. In Italy we are responsible and administrator for www.gentoo.it web site for Gentoo/Linux distrubution and www.nmr.it (now under construction) for Nuclear Magnetic Resonance applications and Congress Organization and Managements.That's all! We are impressed by the smart language used on your Book and we think this is essential for approaching the Python to new users (we are thinking about hundred of students and researcher working on our labs).
## Italian (second)
An Italian translation has been created by
Calvina Bice & colleagues at <http://besthcgdropswebsite.com/translate/a-byte-of-python/>.
## Japanese
Shunro Dozono ([email protected]) is translating the book to Japanese.
## Korean
### Epsimatt (2019)
Epsimatt has started a new Korean translation:
- Read online at https://epsimatt.gitbook.io/byte-of-python/
- Follow progress at https://github.com/epsimatt/byte-of-python/issues/16
### Older
Jeongbin Park ([email protected]) has translated the book to Korean - <https://github.com/pjb7687/byte_of_python>
> I am Jeongbin Park, currently working as a Biophysics & Bioinformatics researcher in Korea.
>
> A year ago, I was looking for a good tutorial/guide for Python to introduce it to my colleagues, because using Python in such research fields is becoming inevitable due to the user base is growing more and more.
>
> But at that time only few Python books are available in Korean, so I decided to translate your ebook because it looks like one of the best guides that I have ever read!
>
> Currently, the book is almost completely translated in Korean, except some of the text in introduction chapter and the appendixes.
>
> Thank you again for writing such a good guide!
## Mongolian
Ariunsanaa Tunjin ([email protected]) has volunteered to translate the book to Mongolian.
_Update on Nov 22, 2009_ : Ariunsanaa is on the verge of completing the translation.
## Norwegian (bokmål)
Eirik Vågeskar is a high school student at Sandvika videregående skole in Norway, a blogger and currently translating the book to Norwegian (bokmål).
> _Eirik Vågeskar_: I have always wanted to program, but because I speak a small language, the learning process was much harder. Most tutorials and books are written in very technical English, so most high school graduates will not even have the vocabulary to understand what the tutorial is about. When I discovered this book, all my problems were solved. "A Byte of Python" used simple non-technical language to explain a programming language that is just as simple, and these two things make learning Python fun. After reading half of the book, I decided that the book was worth translating. I hope the translation will help people who have found themself in the same situation as me (especially young people), and maybe help spread interest for the language among people with less technical knowledge.
## Polish
Dominik Kozaczko ([email protected]) has volunteered to translate the book to Polish. Translation is in progress and it's main page is available here: Ukąś Pythona.
_Update_ : The translation is complete and ready as of Oct 2, 2009. Thanks to Dominik, his two students and their friend for their time and effort!
> _Dominik Kozaczko_ - I'm a Computer Science and Information Technology teacher.
## Portuguese
Artur Weber ([email protected]) has completed a translation of this book to Portuguese (as of Feb 21, 2018) at <https://www.homeyou.com/~edu/introducao>.
> _Artur Weber_: My students study at the Polytechnic faculty in Ecological University in the city of Curitiba (Brazil) and some of them are interested in different papers.
>
> As they are writing course and academic papers, they always look for interesting articles and pages. I also do my best to find interesting materials which can be the sources for their university works.
>
> I found the materials from your site useful for some of my students who are writing papers based on programming on Python. Actually, that is why I made a decision to perform a Portuguese translation to let my students who don't know English read exciting articles in their mother tongue ( in Portuguese).
## Russian
Vladimir Smolyar ([email protected]) has completed a Russian translation at <http://wombat.org.ua/AByteOfPython/>.
## Ukranian
Averkiev Andrey ([email protected]) has volunteered to translate the book to Russian, and perhaps Ukranian (time permitting).
## Serbian
"BugSpice" ([email protected]) has completed a Serbian translation:
> This download link is no longer accessible.
More details at <http://forum.ubuntu-rs.org/Thread-zagrljaj-pitona>.
## Slovak
Albertio Ward ([email protected]) has translated the book to Slovak at <http://www.fatcow.com/edu/python-swaroopch-sl/> :
> We are a non-profit organization called "Translation for education". We represent a group of people, mainly students and professors, of the Slavonic University. Here are students from different departments: linguistics, chemistry, biology, etc. We try to find interesting publications on the Internet that can be relevant for us and our university colleagues. Sometimes we find articles by ourselves; other times our professors help us choose the material for translation. After obtaining permission from authors we translate articles and post them in our blog which is available and accessible to our colleagues and friends. These translated publications often help students in their daily study routine.
## Spanish
Alfonso de la Guarda Reyes ([email protected]), Gustavo Echeverria ([email protected]), David Crespo Arroyo ([email protected]) and Cristian Bermudez Serna ([email protected]) have volunteered to translate the book to Spanish.
Gustavo Echeverria says:
> I work as a software engineer in Argentina. I use mostly C# and .Net technologies at work but strictly Python or Ruby in my personal projects. I knew Python many years ago and I got stuck inmediately. Not so long after knowing Python I discovered this book and it helped me to learn the language. Then I volunteered to translate the book to Spanish. Now, after receiving some requests, I've begun to translate "A Byte of Python" with the help of Maximiliano Soler.
Cristian Bermudez Serna says:
> I am student of Telecommunications engineering at the University of Antioquia (Colombia). Months ago, i started to learn Python and found this wonderful book, so i volunteered to get the Spanish translation.
## Swedish
Mikael Jacobsson ([email protected]) has volunteered to translate the book to Swedish.
## Turkish
Türker SEZER ([email protected]) and Bugra Cakir ([email protected]) have volunteered to translate the book to Turkish. "Where is Turkish version? Bitse de okusak."
|
# [A Byte of Python](https://python.swaroopch.com/)
# About Python
Python is one of those rare languages which can claim to be both _simple_ and _powerful_. You will find yourself pleasantly surprised to see how easy it is to concentrate on the solution to the problem rather than the syntax and structure of the language you are programming in.
The official introduction to Python is:
> Python is an easy to learn, powerful programming language. It has efficient high-level data structures and a simple but effective approach to object-oriented programming. Python's elegant syntax and dynamic typing, together with its interpreted nature, make it an ideal language for scripting and rapid application development in many areas on most platforms.
I will discuss most of these features in more detail in the next section.
## Story behind the name
Guido van Rossum, the creator of the Python language, named the language after the BBC show "Monty
Python's Flying Circus". He doesn't particularly like snakes that kill animals for food by winding
their long bodies around them and crushing them.
## Features of Python
### Simple
Python is a simple and minimalistic language. Reading a good Python program feels almost like reading English, although very strict English! This pseudo-code nature of Python is one of its greatest strengths. It allows you to concentrate on the solution to the problem rather than the language itself.
### Easy to Learn
As you will see, Python is extremely easy to get started with. Python has an extraordinarily simple syntax, as already mentioned.
### Free and Open Source
Python is an example of a _FLOSS_ (Free/Libre and Open Source Software). In simple terms, you can freely distribute copies of this software, read its source code, make changes to it, and use pieces of it in new free programs. FLOSS is based on the concept of a community which shares knowledge. This is one of the reasons why Python is so good - it has been created and is constantly improved by a community who just want to see a better Python.
### High-level Language
When you write programs in Python, you never need to bother about the low-level details such as managing the memory used by your program, etc.
### Portable
Due to its open-source nature, Python has been ported to (i.e. changed to make it work on) many platforms. All your Python programs can work on any of these platforms without requiring any changes at all if you are careful enough to avoid any system-dependent features.
You can use Python on GNU/Linux, Windows, FreeBSD, Macintosh, Solaris, OS/2, Amiga, AROS, AS/400, BeOS, OS/390, z/OS, Palm OS, QNX, VMS, Psion, Acorn RISC OS, VxWorks, PlayStation, Sharp Zaurus, Windows CE and PocketPC!
You can even use a platform like Kivy to create games for your computer _and_ for iPhone, iPad, and Android.
### Interpreted
This requires a bit of explanation.
A program written in a compiled language like C or C\++ is converted from the source language i.e. C or C++ into a language that is spoken by your computer (binary code i.e. 0s and 1s) using a compiler with various flags and options. When you run the program, the linker/loader software copies the program from hard disk to memory and starts running it.
Python, on the other hand, does not need compilation to binary. You just _run_ the program directly from the source code. Internally, Python converts the source code into an intermediate form called bytecodes and then translates this into the native language of your computer and then runs it. All this, actually, makes using Python much easier since you don't have to worry about compiling the program, making sure that the proper libraries are linked and loaded, etc. This also makes your Python programs much more portable, since you can just copy your Python program onto another computer and it just works!
### Object Oriented
Python supports procedure-oriented programming as well as object-oriented programming (OOP). In _procedure-oriented_ languages, the program is built around procedures or functions which are nothing but reusable pieces of programs. In _object-oriented_ languages, the program is built around objects which combine data and functionality. Python has a very powerful but simplistic way of doing OOP, especially when compared to big languages like C++ or Java.
### Extensible
If you need a critical piece of code to run very fast or want to have some piece of algorithm not to be open, you can code that part of your program in C or C\++ and then use it from your Python program.
### Embeddable
You can embed Python within your C/C\++ programs to give _scripting_ capabilities for your program's users.
### Extensive Libraries
The Python Standard Library is huge indeed. It can help you do various things involving regular expressions,documentation generation, unit testing, threading, databases, web browsers, CGI, FTP, email, XML, XML-RPC, HTML, WAV files, cryptography, GUI (graphical user interfaces), and other system-dependent stuff. Remember, all this is always available wherever Python is installed. This is called the _Batteries Included_ philosophy of Python.
Besides the standard library, there are various other high-quality libraries which you can find at the Python Package Index.
### Summary
Python is indeed an exciting and powerful language. It has the right combination of performance and features that make writing programs in Python both fun and easy.
## Python 3 versus 2
You can ignore this section if you're not interested in the difference between "Python version 2" and "Python version 3". But please do be aware of which version you are using. This book is written for Python version 3.
Remember that once you have properly understood and learn to use one version, you can easily learn the differences and use the other one. The hard part is learning programming and understanding the basics of Python language itself. That is our goal in this book, and once you have achieved that goal, you can easily use Python 2 or Python 3 depending on your situation.
For details on differences between Python 2 and Python 3, see:
- The future of Python 2
- Porting Python 2 Code to Python 3
- Writing code that runs under both Python2 and 3
- Supporting Python 3: An in-depth guide
## What Programmers Say
You may find it interesting to read what great hackers like Eric S. Raymond (ESR) have to say about Python:
- _Eric S. Raymond_ is the author of "The Cathedral and the Bazaar" and is also the person who coined the term _Open Source_. He says that Python has become his favorite programming language. This article was the real inspiration for my first brush with Python.
- _Bruce Eckel_ is the author of the famous 'Thinking in Java' and 'Thinking in C++' books. He says that no language has made him more productive than Python. He says that Python is perhaps the only language that focuses on making things easier for the programmer. Read the complete interview for more details.
- _Peter Norvig_ is a well-known Lisp author and Director of Search Quality at Google (thanks to Guido van Rossum for pointing that out). He says that writing Python is like writing in pseudocode. He says that Python has always been an integral part of Google. You can actually verify this statement by looking at the Google Jobs page which lists Python knowledge as a requirement for software engineers.
|
# [A Byte of Python](https://python.swaroopch.com/)
# Basics
Just printing `hello world` is not enough, is it? You want to do more than that - you want to take some input, manipulate it and get something out of it. We can achieve this in Python using constants and variables, and we'll learn some other concepts as well in this chapter.
## Comments
_Comments_ are any text to the right of the `#` symbol and is mainly useful as notes for the reader of the program.
For example:
```python
print('hello world') # Note that print is a function
```
or:
```python
# Note that print is a function
print('hello world')
```
Use as many useful comments as you can in your program to:
- explain assumptions
- explain important decisions
- explain important details
- explain problems you're trying to solve
- explain problems you're trying to overcome in your program, etc.
*Code tells you how, comments should tell you why*.
This is useful for readers of your program so that they can easily understand what the program is doing. Remember, that person can be yourself after six months!
## Literal Constants
An example of a literal constant is a number like `5`, `1.23`, or a string like `'This is a string'` or `"It's a string!"`.
It is called a literal because it is _literal_ - you use its value literally. The number `2` always represents itself and nothing else - it is a _constant_ because its value cannot be changed. Hence, all these are referred to as literal constants.
## Numbers
Numbers are mainly of two types - integers and floats.
An example of an integer is `2` which is just a whole number.
Examples of floating point numbers (or _floats_ for short) are `3.23` and `52.3E-4`. The `E` notation indicates powers of 10. In this case, `52.3E-4` means `52.3 * 10^-4^`.
> **Note for Experienced Programmers**
>
> There is no separate `long` type. The `int` type can be an integer of any size.
## Strings
A string is a _sequence_ of _characters_. Strings are basically just a bunch of words.
You will be using strings in almost every Python program that you write, so pay attention to the following part.
### Single Quote
You can specify strings using single quotes such as `'Quote me on this'`.
All white space i.e. spaces and tabs, within the quotes, are preserved as-is.
### Double Quotes
Strings in double quotes work exactly the same way as strings in single quotes. An example is `"What's your name?"`.
### Triple Quotes
You can specify multi-line strings using triple quotes - (`"""` or `'''`). You can use single quotes and double quotes freely within the triple quotes. An example is:
```python
'''This is a multi-line string. This is the first line.
This is the second line.
"What's your name?," I asked.
He said "Bond, James Bond."
'''
```
### Strings Are Immutable
This means that once you have created a string, you cannot change it. Although this might seem like
a bad thing, it really isn't. We will see why this is not a limitation in the various programs that
we see later on.
> **Note for C/C++ Programmers**
>
> There is no separate `char` data type in Python. There is no real need for it and I am sure you won't miss it.
<!-- -->
> **Note for Perl/PHP Programmers**
>
> Remember that single-quoted strings and double-quoted strings are the same - they do not differ in any way.
### The format method
Sometimes we may want to construct strings from other information. This is where the `format()` method is useful.
Save the following lines as a file `str_format.py`:
```python
age = 20
name = 'Swaroop'
print('{0} was {1} years old when he wrote this book'.format(name, age))
print('Why is {0} playing with that python?'.format(name))
```
Output:
```
$ python str_format.py
Swaroop was 20 years old when he wrote this book
Why is Swaroop playing with that python?
```
**How It Works**
A string can use certain specifications and subsequently, the `format` method can be called to substitute those specifications with corresponding arguments to the `format` method.
Observe the first usage where we use `{0}` and this corresponds to the variable `name` which is the first argument to the format method. Similarly, the second specification is `{1}` corresponding to `age` which is the second argument to the format method. Note that Python starts counting from 0 which means that first position is at index 0, second position is at index 1, and so on.
Notice that we could have achieved the same using string concatenation:
```python
name + ' is ' + str(age) + ' years old'
```
but that is much uglier and more error-prone. Second, the conversion to string would be done automatically by the `format` method instead of the explicit conversion to strings needed in this case. Third, when using the `format` method, we can change the message without having to deal with the variables used and vice-versa.
Also note that the numbers are optional, so you could have also written as:
```python
age = 20
name = 'Swaroop'
print('{} was {} years old when he wrote this book'.format(name, age))
print('Why is {} playing with that python?'.format(name))
```
which will give the same exact output as the previous program.
We can also name the parameters:
```python
age = 20
name = 'Swaroop'
print('{name} was {age} years old when he wrote this book'.format(name=name, age=age))
print('Why is {name} playing with that python?'.format(name=name))
```
which will give the same exact output as the previous program.
Python 3.6 introduced a shorter way to do named parameters, called "f-strings":
```python
age = 20
name = 'Swaroop'
print(f'{name} was {age} years old when he wrote this book') # notice the 'f' before the string
print(f'Why is {name} playing with that python?') # notice the 'f' before the string
```
which will give the same exact output as the previous program.
What Python does in the `format` method is that it substitutes each argument value into the place of the specification. There can be more detailed specifications such as:
```python
# decimal (.) precision of 3 for float '0.333'
print('{0:.3f}'.format(1.0/3))
# fill with underscores (_) with the text centered
# (^) to 11 width '___hello___'
print('{0:_^11}'.format('hello'))
# keyword-based 'Swaroop wrote A Byte of Python'
print('{name} wrote {book}'.format(name='Swaroop', book='A Byte of Python'))
```
Output:
```
0.333
___hello___
Swaroop wrote A Byte of Python
```
Since we are discussing formatting, note that `print` always ends with an invisible "new line" character (`\n`) so that repeated calls to `print` will all print on a separate line each. To prevent this newline character from being printed, you can specify that it should `end` with a blank:
```python
print('a', end='')
print('b', end='')
```
Output is:
```
ab
```
Or you can `end` with a space:
```python
print('a', end=' ')
print('b', end=' ')
print('c')
```
Output is:
```
a b c
```
### Escape Sequences
Suppose, you want to have a string which contains a single quote (`'`), how will you specify this string? For example, the string is `"What's your name?"`. You cannot specify `'What's your name?'` because Python will be confused as to where the string starts and ends. So, you will have to specify that this single quote does not indicate the end of the string. This can be done with the help of what is called an _escape sequence_. You specify the single quote as `\'` : notice the backslash. Now, you can specify the string as `'What\'s your name?'`.
Another way of specifying this specific string would be `"What's your name?"` i.e. using double quotes. Similarly, you have to use an escape sequence for using a double quote itself in a double quoted string. Also, you have to indicate the backslash itself using the escape sequence `\\`.
What if you wanted to specify a two-line string? One way is to use a triple-quoted string as shown previously or you can use an escape sequence for the newline character - `\n` to indicate the start of a new line. An example is:
```python
'This is the first line\nThis is the second line'
```
Another useful escape sequence to know is the tab: `\t`. There are many more escape sequences but I have mentioned only the most useful ones here.
One thing to note is that in a string, a single backslash at the end of the line indicates that the string is continued in the next line, but no newline is added. For example:
```python
"This is the first sentence. \
This is the second sentence."
```
is equivalent to
```python
"This is the first sentence. This is the second sentence."
```
### Raw String
If you need to specify some strings where no special processing such as escape sequences are handled, then what you need is to specify a _raw_ string by prefixing `r` or `R` to the string. An example is:
```python
r"Newlines are indicated by \n"
```
> **Note for Regular Expression Users**
>
> Always use raw strings when dealing with regular expressions. Otherwise, a lot of backwhacking may be required. For example, backreferences can be referred to as `'\\1'` or `r'\1'`.
## Variable
Using just literal constants can soon become boring - we need some way of storing any information and manipulate them as well. This is where _variables_ come into the picture. Variables are exactly what the name implies - their value can vary, i.e., you can store anything using a variable. Variables are just parts of your computer's memory where you store some information. Unlike literal constants, you need some method of accessing these variables and hence you give them names.
## Identifier Naming
Variables are examples of identifiers. _Identifiers_ are names given to identify _something_. There are some rules you have to follow for naming identifiers:
- The first character of the identifier must be a letter of the alphabet (uppercase ASCII or lowercase ASCII or Unicode character) or an underscore (`_`).
- The rest of the identifier name can consist of letters (uppercase ASCII or lowercase ASCII or Unicode character), underscores (`_`) or digits (0-9).
- Identifier names are case-sensitive. For example, `myname` and `myName` are _not_ the same. Note the lowercase `n` in the former and the uppercase `N` in the latter.
- Examples of _valid_ identifier names are `i`, `name_2_3`. Examples of _invalid_ identifier names are `2things`, `this is spaced out`, `my-name` and `>a1b2_c3`.
## Data Types
Variables can hold values of different types called _data types_. The basic types are numbers and strings, which we have already discussed. In later chapters, we will see how to create our own types using classes.
## Object
Remember, Python refers to anything used in a program as an _object_. This is meant in the generic sense. Instead of saying "the _something_"', we say "the _object_".
> **Note for Object Oriented Programming users**:
>
> Python is strongly object-oriented in the sense that everything is an object including numbers, strings and functions.
We will now see how to use variables along with literal constants. Save the following example and run the program.
## How to write Python programs
Henceforth, the standard procedure to save and run a Python program is as follows:
### For PyCharm
1. Open PyCharm.
2. Create new file with the filename mentioned.
3. Type the program code given in the example.
4. Right-click and run the current file.
NOTE: Whenever you have to provide command line arguments, click on `Run` -> `Edit Configurations` and type the arguments in the `Script parameters:` section and click the `OK` button:
!PyCharm command line arguments
### For other editors
1. Open your editor of choice.
2. Type the program code given in the example.
3. Save it as a file with the filename mentioned.
4. Run the interpreter with the command `python program.py` to run the program.
### Example: Using Variables And Literal Constants
Type and run the following program:
```python
# Filename : var.py
i = 5
print(i)
i = i + 1
print(i)
s = '''This is a multi-line string.
This is the second line.'''
print(s)
```
Output:
```
5
6
This is a multi-line string.
This is the second line.
```
**How It Works**
Here's how this program works. First, we assign the literal constant value `5` to the variable `i` using the assignment operator (`=`). This line is called a statement because it states that something should be done and in this case, we connect the variable name `i` to the value `5`. Next, we print the value of `i` using the `print` statement which, unsurprisingly, just prints the value of the variable to the screen.
Then we add `1` to the value stored in `i` and store it back. We then print it and expectedly, we get the value `6`.
Similarly, we assign the literal string to the variable `s` and then print it.
> **Note for static language programmers**
>
> Variables are used by just assigning them a value. No declaration or data type definition is needed/used.
## Logical And Physical Line
A physical line is what you _see_ when you write the program. A logical line is what _Python sees_ as a single statement. Python implicitly assumes that each _physical line_ corresponds to a _logical line_.
An example of a logical line is a statement like `print('hello world')` - if this was on a line by itself (as you see it in an editor), then this also corresponds to a physical line.
Implicitly, Python encourages the use of a single statement per line which makes code more readable.
If you want to specify more than one logical line on a single physical line, then you have to explicitly specify this using a semicolon (`;`) which indicates the end of a logical line/statement. For example:
```python
i = 5
print(i)
```
is effectively same as
```python
i = 5;
print(i);
```
which is also same as
```python
i = 5; print(i);
```
and same as
```python
i = 5; print(i)
```
However, I *strongly recommend* that you stick to *writing a maximum of a single logical line on each single physical line*. The idea is that you should never use the semicolon. In fact, I have _never_ used or even seen a semicolon in a Python program.
There is one kind of situation where this concept is really useful: if you have a long line of code, you can break it into multiple physical lines by using the backslash. This is referred to as _explicit line joining_:
```python
s = 'This is a string. \
This continues the string.'
print(s)
```
Output:
```
This is a string. This continues the string.
```
Similarly,
```python
i = \
5
```
is the same as
```python
i = 5
```
Sometimes, there is an implicit assumption where you don't need to use a backslash. This is the case where the logical line has a starting parentheses, starting square brackets or a starting curly braces but not an ending one. This is called *implicit line joining*. You can see this in action when we write programs using list in later chapters.
## Indentation
Whitespace is important in Python. Actually, *whitespace at the beginning of the line is important*. This is called _indentation_. Leading whitespace (spaces and tabs) at the beginning of the logical line is used to determine the indentation level of the logical line, which in turn is used to determine the grouping of statements.
This means that statements which go together _must_ have the same indentation. Each such set of statements is called a *block*. We will see examples of how blocks are important in later chapters.
One thing you should remember is that wrong indentation can give rise to errors. For example:
```python
i = 5
# Error below! Notice a single space at the start of the line
print('Value is', i)
print('I repeat, the value is', i)
```
When you run this, you get the following error:
```
File "whitespace.py", line 3
print('Value is', i)
^
IndentationError: unexpected indent
```
Notice that there is a single space at the beginning of the second line. The error indicated by Python tells us that the syntax of the program is invalid i.e. the program was not properly written. What this means to you is that _you cannot arbitrarily start new blocks of statements_ (except for the default main block which you have been using all along, of course). Cases where you can use new blocks will be detailed in later chapters such as the control flow.
> **How to indent**
>
> Use four spaces for indentation. This is the official Python language recommendation. Good editors will automatically do this for you. Make sure you use a consistent number of spaces for indentation, otherwise your program will not run or will have unexpected behavior.
<!-- -->
> **Note to static language programmers**
>
> Python will always use indentation for blocks and will never use braces. Run `from __future__ import braces` to learn more.
## Summary
Now that we have gone through many nitty-gritty details, we can move on to more interesting stuff such as control flow statements. Be sure to become comfortable with what you have read in this chapter.
|
# [A Byte of Python](https://python.swaroopch.com/)
# First Steps
We will now see how to run a traditional 'Hello World' program in Python. This will teach you how to write, save and run Python programs.
There are two ways of using Python to run your program - using the interactive interpreter prompt or using a source file. We will now see how to use both of these methods.
## Using The Interpreter Prompt
Open the terminal in your operating system (as discussed previously in the Installation chapter) and then open the Python prompt by typing `python3` and pressing `[enter]` key.
Once you have started Python, you should see `>>>` where you can start typing stuff. This is called the _Python interpreter prompt_.
At the Python interpreter prompt, type:
```python
print("Hello World")
```
followed by the `[enter]` key. You should see the words `Hello World` printed to the screen.
Here is an example of what you should be seeing, when using a Mac OS X computer. The details about the Python software will differ based on your computer, but the part from the prompt (i.e. from `>>>` onwards) should be the same regardless of the operating system.
<!-- The output should match pythonVersion variable in book.json -->
```python
$ python3
Python 3.6.0 (default, Jan 12 2017, 11:26:36)
[GCC 4.2.1 Compatible Apple LLVM 8.0.0 (clang-800.0.38)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
>>> print("Hello World")
Hello World
```
Notice that Python gives you the output of the line immediately! What you just entered is a single Python _statement_. We use `print` to (unsurprisingly) print any value that you supply to it. Here, we are supplying the text `Hello World` and this is promptly printed to the screen.
### How to Quit the Interpreter Prompt
If you are using a GNU/Linux or OS X shell, you can exit the interpreter prompt by pressing `[ctrl + d]` or entering `exit()` (note: remember to include the parentheses, `()`) followed by the `[enter]` key.
If you are using the Windows command prompt, press `[ctrl + z]` followed by the `[enter]` key.
## Choosing An Editor
We cannot type out our program at the interpreter prompt every time we want to run something, so we have to save them in files and can run our programs any number of times.
To create our Python source files, we need an editor software where you can type and save. A good programmer's editor will make your life easier in writing the source files. Hence, the choice of an editor is crucial indeed. You have to choose an editor as you would choose a car you would buy. A good editor will help you write Python programs easily, making your journey more comfortable and helps you reach your destination (achieve your goal) in a much faster and safer way.
One of the very basic requirements is _syntax highlighting_ where all the different parts of your Python program are colorized so that you can _see_ your program and visualize its running.
If you have no idea where to start, I would recommend using PyCharm Educational Edition software which is available on Windows, Mac OS X and GNU/Linux. Details in the next section.
If you are using Windows, *do not use Notepad* - it is a bad choice because it does not do syntax highlighting and also importantly it does not support indentation of the text which is very important in our case as we will see later. Good editors will automatically do this.
If you are an experienced programmer, then you must be already using Vim or Emacs. Needless to say, these are two of the most powerful editors and you will benefit from using them to write your Python programs. I personally use both for most of my programs, and have even written an entire book on Vim.
In case you are willing to take the time to learn Vim or Emacs, then I highly recommend that you do learn to use either of them as it will be very useful for you in the long run. However, as I mentioned before, beginners can start with PyCharm and focus the learning on Python rather than the editor at this moment.
To reiterate, please choose a proper editor - it can make writing Python programs more fun and easy.
If you are interested in a detailed discussion on this topic, check out Finding the Perfect Python Code Editor.
## PyCharm
PyCharm Educational Edition is a free editor which you can use for writing Python programs.
When you open PyCharm, you'll see this, click on `Create New Project`:
!When you open PyCharm
Select `Pure Python`:
!PyCharm New Project
Change `untitled` to `helloworld` as the location of the project, you should see details similar to this:
!PyCharm project details
Click the `Create` button.
Right-click on the `helloworld` in the sidebar and select `New` -> `Python File`:
!PyCharm -> New -> Python File
You will be asked to type the name, type `hello`:
!PyCharm New File dialog box
You can now see a file opened for you:
!PyCharm hello.py file
Delete the lines that are already present, and now type the following:
<!-- TODO: Update screenshots for Python 3 -->
```python
print("hello world")
```
Now right-click on what you typed (without selecting the text), and click on `Run 'hello'`.
!PyCharm Run 'hello'
You should now see the output (what it prints) of your program:
!PyCharm output
Phew! That was quite a few steps to get started, but henceforth, every time we ask you to create a new file, remember to just right-click on `helloworld` on the left -> `New` -> `Python File` and continue the same steps to type and run as shown above.
You can find more information about PyCharm in the PyCharm Quickstart page.
## Vim
1. Install Vim
* Mac OS X users should install `macvim` package via HomeBrew
* Windows users should download the "self-installing executable" from Vim website
* GNU/Linux users should get Vim from their distribution's software repositories, e.g. Debian and Ubuntu users can install the `vim` package.
2. Install jedi-vim plugin for autocompletion.
3. Install corresponding `jedi` python package : `pip install -U jedi`
## Emacs
1. Install Emacs 24+.
* Mac OS X users should get Emacs from http://emacsformacosx.com
* Windows users should get Emacs from http://ftp.gnu.org/gnu/emacs/windows/
* GNU/Linux users should get Emacs from their distribution's software repositories, e.g. Debian and Ubuntu users can install the `emacs24` package.
2. Install ELPY
## Using A Source File
Now let's get back to programming. There is a tradition that whenever you learn a new programming language, the first program that you write and run is the 'Hello World' program - all it does is just say 'Hello World' when you run it. As Simon Cozens[^1] says, it is the "traditional incantation to the programming gods to help you learn the language better."
Start your choice of editor, enter the following program and save it as `hello.py`.
If you are using PyCharm, we have already discussed how to run from a source file.
For other editors, open a new file `hello.py` and type this:
```python
print("hello world")
```
Where should you save the file? To any folder for which you know the location of the folder. If you
don't understand what that means, create a new folder and use that location to save and run all
your Python programs:
- `/tmp/py` on Mac OS X
- `/tmp/py` on GNU/Linux
- `C:\py` on Windows
To create the above folder (for the operating system you are using), use the `mkdir` command in the terminal, for example, `mkdir /tmp/py`.
IMPORTANT: Always ensure that you give it the file extension of `.py`, for example, `foo.py`.
To run your Python program:
1. Open a terminal window (see the previous Installation chapter on how to do that)
2. **C**hange **d**irectory to where you saved the file, for example, `cd /tmp/py`
3. Run the program by entering the command `python hello.py`. The output is as shown below.
```
$ python hello.py
hello world
```
!Screenshot of running program in terminal
If you got the output as shown above, congratulations! - you have successfully run your first Python program. You have successfully crossed the hardest part of learning programming, which is, getting started with your first program!
In case you got an error, please type the above program _exactly_ as shown above and run the program again. Note that Python is case-sensitive i.e. `print` is not the same as `Print` - note the lowercase `p` in the former and the uppercase `P` in the latter. Also, ensure there are no spaces or tabs before the first character in each line - we will see why this is important later.
**How It Works**
A Python program is composed of _statements_. In our first program, we have only one statement. In this statement, we call the `print` _statement_ to which we supply the text "hello world".
## Getting Help
If you need quick information about any function or statement in Python, then you can use the built-in `help` functionality. This is very useful especially when using the interpreter prompt. For example, run `help('len')` - this displays the help for the `len` function which is used to count number of items.
TIP: Press `q` to exit the help.
Similarly, you can obtain information about almost anything in Python. Use `help()` to learn more about using `help` itself!
In case you need to get help for operators like `return`, then you need to put those inside quotes such as `help('return')` so that Python doesn't get confused on what we're trying to do.
## Summary
You should now be able to write, save and run Python programs at ease.
Now that you are a Python user, let's learn some more Python concepts.
---
[^1]: the author of the amazing 'Beginning Perl' book
|
Subsets and Splits